Deepseek: Ang nakakagambalang isa ay nag -rebolusyon sa landscape ng AI

AIPU WATON GROUP

Panimula

Ang patuloy na pagkabalisa sa mga nakikipagkumpitensya na malalaking modelo, mga nagbibigay ng ulap na nakikipagkumpitensya para sa pagbabahagi ng merkado, at mga tagagawa ng masipag na chip - ang epekto ng Deepseek ay nagpapatuloy.

Habang malapit na ang pagdiriwang ng tagsibol, ang kaguluhan na nakapalibot sa Deepseek ay nananatiling malakas. Ang kamakailang holiday ay naka -highlight ng isang makabuluhang kahulugan ng kumpetisyon sa loob ng industriya ng tech, na maraming tinatalakay at sinusuri ang "catfish na ito." Ang Silicon Valley ay nakakaranas ng isang walang uliran na kahulugan ng krisis: ang mga tagapagtaguyod ng open-source ay muling ipinahayag ang kanilang mga opinyon, at kahit na ang OpenAi ay nagsusuri kung ang diskarte na closed-source ay ang pinakamahusay na pagpipilian. Ang bagong paradigma ng mas mababang mga gastos sa computational ay nag-trigger ng isang reaksyon ng kadena sa mga higanteng chip tulad ng NVIDIA, na humahantong sa pag-record ng mga pagkalugi sa halaga ng pamilihan ng merkado sa kasaysayan ng stock market ng US, habang ang mga ahensya ng gobyerno ay sinisiyasat ang pagsunod sa mga chips na ginamit ng DeepSeek. Sa gitna ng halo -halong mga pagsusuri ng mga deepseek sa ibang bansa, sa loob ng dagat, nakakaranas ito ng pambihirang paglaki. Matapos ang paglulunsad ng modelo ng R1, ang nauugnay na app ay nakakita ng isang pag -agos sa trapiko, na nagpapahiwatig na ang paglaki ng mga sektor ng aplikasyon ay magdadala sa pangkalahatang AI ecosystem pasulong. Ang positibong aspeto ay ang Deepseek ay magpapalawak ng mga posibilidad ng aplikasyon, na nagmumungkahi na ang pag -asa sa ChATGPT ay hindi magiging mahal sa hinaharap. Ang paglilipat na ito ay naipakita sa mga kamakailang aktibidad ng OpenAi, kasama na ang pagkakaloob ng isang pangangatuwirang modelo na tinatawag na O3-Mini sa mga libreng gumagamit bilang tugon sa Deepseek R1, pati na rin ang kasunod na mga pag-upgrade na gumawa ng chain chain ng O3-Mini Public. Maraming mga gumagamit sa ibang bansa ang nagpahayag ng pasasalamat sa Deepseek para sa mga pagpapaunlad na ito, bagaman ang chain ng pag -iisip na ito ay nagsisilbing buod.

Optimistically, maliwanag na ang Deepseek ay nagkakaisa sa mga domestic player. Sa pokus nito sa pagbabawas ng mga gastos sa pagsasanay, ang iba't ibang mga tagagawa ng agos ng chip, mga intermediate cloud provider, at maraming mga startup ay aktibong sumali sa ekosistema, pagpapahusay ng kahusayan sa gastos para sa paggamit ng modelo ng Deepseek. Ayon sa mga papeles ng Deepseek, ang kumpletong pagsasanay ng modelo ng V3 ay nangangailangan lamang ng 2.788 milyong H800 GPU na oras, at ang proseso ng pagsasanay ay lubos na matatag. Ang arkitektura ng MOE (halo ng mga eksperto) ay mahalaga para sa pagbabawas ng mga gastos sa pre-pagsasanay sa pamamagitan ng isang kadahilanan ng sampung kumpara sa LLAMA 3 na may 405 bilyong mga parameter. Sa kasalukuyan, ang V3 ang unang modelo ng kinikilalang publiko na nagpapakita ng naturang mataas na sparsity sa MOE. Bilang karagdagan, ang MLA (Multi Layer pansin) ay gumagana nang magkakasabay, lalo na sa mga pangangatuwiran na aspeto. "Ang sparser ang Moe, mas malaki ang laki ng batch na kinakailangan sa panahon ng pangangatuwiran upang ganap na magamit ang computational power, na may laki ng kvcache na ang pangunahing limitasyon ng kadahilanan; ang MLA ay makabuluhang binabawasan ang laki ng kvcache," ang nabanggit na isang mananaliksik mula sa Chuanjing Technology sa isang pagsusuri para sa pagsusuri ng teknolohiya ng AI. Sa pangkalahatan, ang tagumpay ng Deepseek ay nakasalalay sa pagsasama ng iba't ibang mga teknolohiya, hindi lamang isang solong. Pinupuri ng mga tagaloob ng industriya ang mga kakayahan sa engineering ng koponan ng Deepseek, na napansin ang kanilang kahusayan sa kahanay na pagsasanay at pag -optimize ng operator, pagkamit ng mga resulta ng groundbreaking sa pamamagitan ng pagpino ng bawat detalye. Ang open-source na diskarte ng DeepSeek ay higit na naglalabas ng pangkalahatang pag-unlad ng mga malalaking modelo, at inaasahan na kung ang mga katulad na modelo ay lumalawak sa mga imahe, video, at higit pa, ito ay makabuluhang mapasigla ang demand sa buong industriya.

Mga Oportunidad para sa Mga Serbisyo sa Pangangatwiran ng Third-Party

Ipinapahiwatig ng data na mula nang mailabas ito, ang Deepseek ay naipon ng 22.15 milyong pang-araw-araw na aktibong gumagamit (DAU) sa loob lamang ng 21 araw, nakamit ang 41.6% ng base ng gumagamit ng CHATGPT at lumampas sa 16.95 milyong pang-araw-araw na aktibong gumagamit ng Doubao, sa gayon ay naging pinakamabilis na lumalagong aplikasyon sa buong mundo, na pinangungunahan ang tindahan ng Apple App sa 157 mga bansa/rehiyon. Gayunpaman, habang ang mga gumagamit ay nag -flocked sa mga droga, ang mga cyber hacker ay walang tigil na umaatake sa deepseek app, na nagdudulot ng makabuluhang pilay sa mga server nito. Naniniwala ang mga analyst ng industriya na ito ay bahagyang dahil sa mga deepseek na nagtatapon ng mga kard para sa pagsasanay habang kulang ang sapat na computational power para sa pangangatuwiran. Ang isang tagaloob ng industriya ay nagpapaalam sa pagsusuri ng teknolohiya ng AI, "Ang madalas na mga isyu sa server ay maaaring malutas nang madali sa pamamagitan ng pagsingil ng mga bayarin o financing upang bumili ng higit pang mga makina; sa huli, nakasalalay ito sa mga desisyon ng Deepseek." Nagtatanghal ito ng isang trade-off sa pagtuon sa teknolohiya kumpara sa paggawa. Ang Deepseek ay higit sa lahat ay umasa sa dami ng dami para sa self-endenance, na nakatanggap ng kaunting panlabas na pondo, na nagreresulta sa medyo mababang presyon ng daloy ng cash at isang purer na teknolohikal na kapaligiran. Sa kasalukuyan, sa ilaw ng nabanggit na mga problema, ang ilang mga gumagamit ay humihimok sa Deepseek sa social media upang itaas ang mga threshold ng paggamit o ipakilala ang mga bayad na tampok upang mapahusay ang kaginhawaan ng gumagamit. Bilang karagdagan, sinimulan ng mga developer ang paggamit ng opisyal na API o mga API ng third-party para sa pag-optimize. Gayunpaman, ang bukas na platform ng Deepseek kamakailan ay inihayag, "Ang mga kasalukuyang mapagkukunan ng server ay mahirap makuha, at ang mga recharge ng serbisyo ng API ay nasuspinde."

 

Ito ay walang alinlangan na magbubukas ng maraming mga pagkakataon para sa mga third-party vendor sa sektor ng imprastraktura ng AI. Kamakailan lamang, maraming mga domestic at international cloud Giants ang naglunsad ng mga modelo ng Deepseek na mga API - ang mga higanteng Microsoft at Amazon ay kabilang sa mga unang sumali sa katapusan ng Enero. Ang pinuno ng domestic na si Huawei Cloud, ay gumawa ng unang paglipat, na naglabas ng Deepseek R1 at V3 na mga serbisyo sa pangangatuwiran sa pakikipagtulungan sa daloy na batay sa silikon noong Pebrero 1. Ang malaking tatlong kumpanya ng tech-BAT (Baidu, Alibaba, Tencent) at Bytedance-ay naglabas din ng mababang gastos, limitadong oras na nag-aalok simula ng Pebrero 3, na nakapagpapaalaala sa Cloud Vendor ng nakaraang taon na hindi pinansin ng paglulunsad ng modelo ng V2 ng Deepseek, kung saan sinimulan ng Deepseek na tinawag ang "Presyo Butcher." Ang mga galit na kilos ng mga vendor ng ulap ay nagbubunyi sa naunang malakas na ugnayan sa pagitan ng Microsoft Azure at Openai, kung saan noong 2019, gumawa ng malaking $ 1 bilyon na pamumuhunan ang Microsoft sa OpenAI at umani ng mga benepisyo matapos ang paglulunsad ng Chatgpt noong 2023. Gayunpaman, ang malapit na relasyon na ito ay nagsimulang mag-fray pagkatapos ng meta open-sourced llama, pinapayagan ang iba pang mga vendor sa labas ng Microsoft Azure ecosystem na makipagkumpetensya sa kanilang mga malalaking modelo. Sa pagkakataong ito, ang Deepseek ay hindi lamang lumampas sa ChATGPT sa mga tuntunin ng init ng produkto ngunit ipinakilala rin ang mga open-source na modelo kasunod ng paglabas ng O1, na katulad ng kaguluhan na nakapalibot sa muling pagkabuhay ng LLAMA ng GPT-3.

 

Sa katotohanan, ang mga tagapagbigay ng ulap ay nagpoposisyon din sa kanilang mga sarili bilang mga gateway ng trapiko para sa mga aplikasyon ng AI, na nangangahulugang ang pagpapalalim ng mga ugnayan sa mga developer ay isinasalin sa mga preemptive na pakinabang. Ang mga ulat ay nagpapahiwatig na ang Baidu Smart Cloud ay may higit sa 15,000 mga customer na gumagamit ng modelo ng Deepseek sa pamamagitan ng Qianfan platform sa araw ng paglulunsad ng modelo. Bilang karagdagan, maraming mga mas maliit na kumpanya ang nag-aalok ng mga solusyon, kabilang ang daloy na batay sa silikon, teknolohiya ng Luchen, teknolohiya ng Chuanjing, at iba't ibang mga tagapagbigay ng AI infra na naglunsad ng suporta para sa mga modelo ng DeepSeek. Nalaman ng AI Technology Review na ang kasalukuyang mga oportunidad sa pag -optimize para sa mga naisalokal na pag -deploy ng Deepseek lalo na umiiral sa dalawang lugar: ang isa ay nag -optimize para sa mga katangian ng sparsity ng modelo ng MOE gamit ang isang halo -halong diskarte sa pangangatuwiran upang ma -deploy ang 671 bilyong parameter na modelo ng MOE nang lokal habang gumagamit ng hybrid na GPU/CPU inference. Bilang karagdagan, ang pag -optimize ng MLA ay mahalaga. Gayunpaman, ang dalawang modelo ng Deepseek ay nahaharap pa rin sa ilang mga hamon sa pag -optimize ng pag -deploy. "Dahil sa laki ng modelo at maraming mga parameter, ang pag -optimize ay talagang kumplikado, lalo na para sa mga lokal na pag -deploy kung saan ang pagkamit ng isang pinakamainam na balanse sa pagitan ng pagganap at gastos ay magiging hamon," sabi ng isang mananaliksik mula sa Chuanjing Technology. Ang pinaka makabuluhang sagabal ay namamalagi sa pagtagumpayan ng mga limitasyon ng kapasidad ng memorya. "Nag-ampon kami ng isang heterogenous na diskarte sa pakikipagtulungan upang ganap na magamit ang mga CPU at iba pang mga mapagkukunan ng computational, na inilalagay lamang ang mga hindi ibinahagi na mga bahagi ng sparse moe matrix sa CPU/DRAM para sa pagproseso gamit ang mga high-performance CPU operator, habang ang mga siksik na bahagi ay nananatili sa GPU," ipinaliwanag pa niya. Ang mga ulat ay nagpapahiwatig na ang open-source na balangkas ng Chuanjing ay pangunahing iniksyon ng iba't ibang mga diskarte at mga operator sa orihinal na pagpapatupad ng Transformers sa pamamagitan ng isang template, makabuluhang pagpapahusay ng bilis ng pag-iintindi gamit ang mga pamamaraan tulad ng Cudagraph. Ang Deepseek ay lumikha ng mga pagkakataon para sa mga startup na ito, dahil ang mga benepisyo sa paglago ay nagiging maliwanag; Maraming mga kumpanya ang nag -ulat ng kapansin -pansin na paglago ng customer pagkatapos ilunsad ang Deepseek API, na tumatanggap ng mga katanungan mula sa mga nakaraang kliyente na naghahanap ng mga pag -optimize. Ang mga tagaloob ng industriya ay nabanggit, "Noong nakaraan, medyo itinatag ang mga grupo ng kliyente ay madalas na naka-lock sa mga pamantayang serbisyo ng mga mas malalaking kumpanya, mahigpit na nakagapos ng kanilang mga pakinabang sa gastos dahil sa scale. Gayunpaman, pagkatapos na makumpleto ang paglawak ng mga kalaliman-R1/V3 bago ang pagdiriwang ng tagsibol, bigla kaming nakatanggap ng mga kahilingan sa kooperasyon mula sa maraming mga kilalang kliyente, at kahit na ang mga dating kliyente ay nagsimula ng pakikipag-ugnay upang ipakilala ang aming mga serbisyo sa Deepseek." Sa kasalukuyan, lumilitaw na ang Deepseek ay gumagawa ng modelo ng pag -iintindi ng pagganap na lalong kritikal, at may mas malawak na pag -ampon ng mga malalaking modelo, ito ay magpapatuloy na maimpluwensyahan ang pag -unlad sa industriya ng AI Infra. Kung ang isang modelo ng antas ng Deepseek ay maaaring ma-deploy nang lokal sa isang mababang gastos, makakatulong ito sa mga pagsisikap sa pagbabagong-anyo ng gobyerno at enterprise. Gayunpaman, ang mga hamon ay nagpapatuloy, dahil ang ilang mga kliyente ay maaaring humawak ng mataas na mga inaasahan tungkol sa mga malalaking kakayahan sa modelo, na ginagawang mas maliwanag na ang pagbabalanse ng pagganap at gastos ay nagiging mahalaga sa praktikal na paglawak. 

Upang masuri kung ang Deepseek ay mas mahusay kaysa sa ChATGPT, mahalaga na maunawaan ang kanilang mga pangunahing pagkakaiba, lakas, at paggamit ng mga kaso. Narito ang isang komprehensibong paghahambing:

Tampok/aspeto Deepseek Chatgpt
Pagmamay -ari Binuo ng isang kumpanya ng Tsino Binuo ng openai
Mapagkukunan ng modelo Open-source Pagmamay -ari
Gastos Malayang gamitin; Mga pagpipilian sa pag -access sa API Subscription o pay-per-use pricing
Pagpapasadya Lubos na napapasadyang, pinapayagan ang mga gumagamit na mag -tweak at bumuo nito Magagamit ang limitadong pagpapasadya
Pagganap sa mga tiyak na gawain Excels sa ilang mga lugar tulad ng data analytics at pagkuha ng impormasyon Maraming nalalaman na may malakas na pagganap sa malikhaing pagsulat at mga gawain sa pakikipag -usap
Suporta sa wika Malakas na pokus sa wikang Tsino at kultura Malawak na suporta sa wika ngunit US-sentrik
Gastos sa pagsasanay Mas mababang mga gastos sa pagsasanay, na -optimize para sa kahusayan Mas mataas na gastos sa pagsasanay, na nangangailangan ng malaking mapagkukunan ng computational
Pagkakaiba -iba ng tugon Maaaring mag -alok ng iba't ibang mga tugon, na maaaring maimpluwensyahan ng konteksto ng geopolitikal Pare -pareho ang mga sagot batay sa data ng pagsasanay
Target na madla Naglalayong sa mga nag -develop at mananaliksik na nagnanais ng kakayahang umangkop Naglalayong sa mga pangkalahatang gumagamit na naghahanap ng mga kakayahan sa pag -uusap
Gumamit ng mga kaso Mas mahusay para sa henerasyon ng code at mabilis na mga gawain Tamang -tama para sa pagbuo ng teksto, pagsagot sa mga query, at pagsali sa diyalogo

Isang kritikal na pananaw sa "nakakagambala nvidia"

Sa kasalukuyan, bukod sa Huawei, maraming mga tagagawa ng domestic chip tulad ng Moore Threads, Muxi, Biran Technology, at Tianxu Zhixin ay umaangkop din sa dalawang modelo ng Deepseek. Sinabi ng isang tagagawa ng chip sa AI Technology Review, "Ang istraktura ng Deepseek ay nagpapakita ng pagbabago, gayunpaman nananatili itong isang LLM. Ang aming pagbagay sa Deepseek ay pangunahing nakatuon sa mga pangangatuwiran na aplikasyon, ang paggawa ng teknikal na pagpapatupad na medyo prangka at mabilis." Gayunpaman, ang diskarte ng MOE ay nangangailangan ng mas mataas na mga kahilingan sa mga tuntunin ng pag -iimbak at pamamahagi, kasabay ng pagtiyak ng pagiging tugma kapag nagpapag -deploy ng mga domestic chips, na nagtatanghal ng maraming mga hamon sa engineering na nangangailangan ng paglutas sa panahon ng pagbagay. "Sa kasalukuyan, ang kapangyarihan ng domestic computational ay hindi tumutugma sa nvidia sa kakayahang magamit at katatagan, na nangangailangan ng orihinal na pakikilahok ng pabrika para sa pag -setup ng kapaligiran ng software, pag -aayos, at pag -optimize ng pagganap ng foundational," sinabi ng isang practitioner ng industriya batay sa praktikal na karanasan. Kasabay nito, "dahil sa malaking sukat ng parameter ng Deepseek R1, ang domestic computational power ay nangangailangan ng higit pang mga node para sa pagkakatulad. Bilang karagdagan, ang mga pagtutukoy ng domestic hardware ay hindi pa rin nasa likuran; halimbawa, ang Huawei 910B ay kasalukuyang hindi suportado ang FP8 inference na ipinakilala ng Deepseek." Ang isa sa mga highlight ng modelo ng DeepSeek V3 ay ang pagpapakilala ng isang FP8 na halo -halong balangkas ng pagsasanay sa katumpakan, na epektibo na napatunayan sa isang napakalaking modelo, na nagmamarka ng isang makabuluhang tagumpay. Noong nakaraan, ang mga pangunahing manlalaro tulad ng Microsoft at Nvidia ay iminungkahi ang kaugnay na trabaho, ngunit ang mga pagdududa ay humahawak sa loob ng industriya tungkol sa pagiging posible. Nauunawaan na kung ihahambing sa INT8, ang pangunahing bentahe ng FP8 ay ang dami ng pagsasanay sa post-pagsasanay ay maaaring makamit ang halos pagkawala ng katumpakan habang makabuluhang pagpapahusay ng bilis ng pagkilala. Kapag paghahambing sa FP16, ang FP8 ay maaaring mapagtanto hanggang sa dalawang beses na pagpabilis sa H20 ng NVIDIA at higit sa 1.5 beses na pagbilis sa H100. Kapansin -pansin, habang ang mga talakayan na nakapalibot sa takbo ng domestic computational power kasama ang mga domestic models ay nakakakuha ng momentum, ang haka -haka tungkol sa kung ang nvidia ay maaaring magambala, at kung ang cuda moat ay maaaring mai -bypass, ay nagiging lalong laganap. Ang isang hindi maikakaila na katotohanan ay ang Deepseek ay talagang nagdulot ng malaking pagbagsak sa halaga ng merkado ng Nvidia, ngunit ang pagbabagong ito ay nagtataas ng mga katanungan tungkol sa high-end na computational na integridad ng kapangyarihan ng NVIDIA. Nauna nang tinanggap ang mga salaysay tungkol sa pag-iipon ng computational na hinihimok ng kapital, ngunit nananatiling mahirap para sa NVIDIA na ganap na mapalitan sa mga senaryo ng pagsasanay. Ang pagtatasa ng malalim na paggamit ng Deepseek ng CUDA ay nagpapakita na ang kakayahang umangkop - tulad ng paggamit ng SM para sa komunikasyon o direktang pagmamanipula ng mga card ng network - ay hindi magagawa para sa mga regular na GPU upang mapaunlakan. Binibigyang diin ng mga pananaw sa industriya na ang moat ng Nvidia ay sumasaklaw sa buong ekosistema ng CUDA sa halip na ang CUDA mismo, at ang mga tagubilin ng PTX (Parallel Thread) na ginagamit ng Deepseek ay bahagi pa rin ng ecosystem ng CUDA. "Sa maikling panahon, ang computational power ng NVIDIA ay hindi maaaring maiiwasan - lalo na itong malinaw sa pagsasanay; gayunpaman, ang pag -aalis ng mga domestic card para sa pangangatuwiran ay magiging mas madali, kaya walang pag -unlad na mas mabilis. Ang pagbagay ng mga domestic card na pangunahing nakatuon sa pag -iingat; wala pang pinamamahalaan na sanayin ang isang modelo ng pagganap ng Deepseek sa pagganap ng mga kard sa scale," isang industriya ng analyst na nagsalita sa AI na pagsusuri sa teknolohiya. Sa pangkalahatan, mula sa isang pananaw sa pag -iintindi, ang mga pangyayari ay naghihikayat para sa mga domestic malaking modelo ng chips. Ang mga pagkakataon para sa mga tagagawa ng domestic chip sa loob ng lupain ng pag -iintindi ay mas maliwanag dahil sa labis na mataas na mga kinakailangan ng pagsasanay, na pumipigil sa pagpasok. Ang mga analyst ay nakikipagtalo na ang simpleng paggamit ng mga kard ng pag -iintindi sa domestic; Kung kinakailangan, ang pagkuha ng isang karagdagang makina ay magagawa, samantalang ang mga modelo ng pagsasanay ay nagdudulot ng mga natatanging hamon - ang pamamahala ng isang pagtaas ng bilang ng mga makina ay maaaring maging mabigat, at ang mas mataas na mga rate ng error ay maaaring negatibong makakaapekto sa mga resulta ng pagsasanay. Ang pagsasanay ay mayroon ding tiyak na mga kinakailangan sa kumpol ng kumpol, habang ang mga hinihingi sa mga kumpol para sa pag -iintindi ay hindi mahigpit, sa gayon ang pag -alis ng mga kinakailangan sa GPU. Sa kasalukuyan, ang pagganap ng nag -iisang H20 card ng NVIDIA ay hindi lumampas sa Huawei o Cambrian; Ang lakas nito ay namamalagi sa kumpol. Batay sa pangkalahatang epekto sa Computational Power Market, ang tagapagtatag ng Luchen Technology, na Yang, na nabanggit sa isang pakikipanayam sa AI Technology Review, "Ang DeepSeek ay maaaring pansamantalang papanghinain ang pagtatatag at pag-upa ng mga ultra-malalaking pagsasanay na mga kumpol ng computational. Ang patuloy na demand sa merkado ng computational power. " Bilang karagdagan, "ang mas mataas na demand ng Deepseek para sa mga pangangatuwiran at mga serbisyo ng pag-aayos ay mas katugma sa domestic computational landscape, kung saan ang mga lokal na kapasidad ay medyo mahina, na tumutulong upang mabawasan ang basura mula sa mga idle na mapagkukunan ng post-cluster na pagtatatag; lumilikha ito ng mabubuhay na mga pagkakataon para sa mga tagagawa sa iba't ibang antas ng domestic computational ecosystem." Ang Luchen Technology ay nakipagtulungan sa Huawei Cloud upang ilunsad ang seryeng Deepseek R1 na pangangatuwiran na mga API at mga serbisyo sa imaging cloud batay sa domestic computational power. Nagpahayag ka ng pag -optimize tungkol sa hinaharap: "Ang Deepseek ay nagtataguyod ng tiwala sa mga domestically na ginawa ng mga solusyon, na hinihikayat ang higit na sigasig at pamumuhunan sa mga kakayahan sa pag -compute ng domestic."

微信图片 _20240614024031.jpg1

Konklusyon

Kung ang Deepseek ay "mas mahusay" kaysa sa ChatGPT ay nakasalalay sa mga tiyak na pangangailangan at layunin ng gumagamit. Para sa mga gawain na nangangailangan ng kakayahang umangkop, mababang gastos, at pagpapasadya, ang Deepseek ay maaaring maging mataas. Para sa malikhaing pagsulat, pangkalahatang pagtatanong, at mga interface ng pakikipag-usap sa user, maaaring manguna ang ChATGPT. Naghahain ang bawat tool ng iba't ibang mga layunin, kaya ang pagpipilian ay lubos na nakasalalay sa konteksto kung saan ginagamit ang mga ito.

Maghanap ng solusyon ng ELV cable

Mga control cable

Para sa BMS, Bus, Industrial, Instrumentation Cable.

Nakabalangkas na sistema ng cabling

Network at data, fiber-optic cable, patch cord, module, faceplate

2024 Repasuhin at Mga Kaganapan sa Pagsusuri

Abril.16th-18th, 2024 Middle-East-Energy sa Dubai

Abril.16th-18th, 2024 Securika sa Moscow

Mayo.9th, 2024 Mga Bagong Produkto at Teknolohiya ng Paglulunsad ng Kaganapan sa Shanghai

Oktubre.22nd-25th, 2024 Security China sa Beijing

Nob.19-20, 2024 Konektadong mundo KSA


Oras ng Mag-post: Peb-10-2025