Para sa BMS, BUS, Industrial, Instrumentation Cable.

Habang patapos na ang Spring Festival, nananatiling malakas ang excitement na nakapalibot sa DeepSeek. Ang kamakailang holiday ay nag-highlight ng isang makabuluhang pakiramdam ng kompetisyon sa loob ng tech na industriya, na may maraming tinatalakay at sinusuri ang "hito." Ang Silicon Valley ay nakakaranas ng isang hindi pa nagagawang kahulugan ng krisis: ang mga tagapagtaguyod ng open-source ay muling nagpahayag ng kanilang mga opinyon, at maging ang OpenAI ay muling sinusuri kung ang closed-source na diskarte nito ang pinakamahusay na pagpipilian. Ang bagong paradigma ng mas mababang mga gastos sa computational ay nag-trigger ng isang chain reaction sa mga higanteng chip tulad ng Nvidia, na humahantong sa pagtatala ng isang araw na pagkalugi sa halaga ng merkado sa kasaysayan ng stock market ng US, habang ang mga ahensya ng gobyerno ay sinisiyasat ang pagsunod sa mga chips na ginagamit ng DeepSeek. Sa gitna ng magkahalong review ng DeepSeek sa ibang bansa, sa loob ng bansa, nakakaranas ito ng pambihirang paglago. Pagkatapos ng paglulunsad ng modelong R1, ang nauugnay na app ay nakakita ng pagtaas ng trapiko, na nagpapahiwatig na ang paglago sa mga sektor ng aplikasyon ay magtutulak sa pangkalahatang AI ecosystem na pasulong. Ang positibong aspeto ay ang DeepSeek ay magpapalawak ng mga posibilidad ng aplikasyon, na nagmumungkahi na ang pag-asa sa ChatGPT ay hindi magiging kasing mahal sa hinaharap. Ang pagbabagong ito ay makikita sa mga kamakailang aktibidad ng OpenAI, kabilang ang pagbibigay ng modelo ng pangangatwiran na tinatawag na o3-mini sa mga libreng user bilang tugon sa DeepSeek R1, pati na rin ang mga kasunod na pag-upgrade na ginawang pampubliko ang thought chain ng o3-mini. Maraming mga gumagamit sa ibang bansa ang nagpahayag ng pasasalamat sa DeepSeek para sa mga pag-unlad na ito, bagaman ang chain ng pag-iisip na ito ay nagsisilbing isang buod.
Optimistically, maliwanag na pinag-iisa ng DeepSeek ang mga domestic na manlalaro. Sa pagtutok nito sa pagbabawas ng mga gastos sa pagsasanay, ang iba't ibang upstream chip manufacturer, intermediate cloud provider, at maraming startup ay aktibong sumasali sa ecosystem, na nagpapahusay sa cost efficiency para sa paggamit ng DeepSeek model. Ayon sa mga papeles ng DeepSeek, ang kumpletong pagsasanay ng modelong V3 ay nangangailangan lamang ng 2.788 milyong oras ng H800 GPU, at ang proseso ng pagsasanay ay lubos na matatag. Ang arkitektura ng MoE (Mixture of Experts) ay mahalaga para sa pagbabawas ng mga gastos sa pre-training ng sampu kumpara sa Llama 3 na may 405 bilyong parameter. Sa kasalukuyan, ang V3 ang kauna-unahang modelong kinikilala ng publiko na nagpapakita ng napakataas na sparsity sa MoE. Bukod pa rito, gumagana ang MLA (Multi Layer Attention) nang magkakasabay, partikular sa mga aspeto ng pangangatwiran. "Kung mas maliit ang MoE, mas malaki ang laki ng batch na kailangan sa panahon ng pangangatwiran upang ganap na magamit ang computational power, na ang laki ng KVCache ang pangunahing salik sa paglilimita; makabuluhang binabawasan ng MLA ang laki ng KVCache," sabi ng isang mananaliksik mula sa Chuanjing Technology sa isang pagsusuri para sa AI Technology Review. Sa pangkalahatan, ang tagumpay ng DeepSeek ay nakasalalay sa kumbinasyon ng iba't ibang mga teknolohiya, hindi lamang ng isa. Pinupuri ng mga tagaloob ng industriya ang mga kakayahan sa engineering ng DeepSeek team, na binabanggit ang kanilang kahusayan sa parallel na pagsasanay at pag-optimize ng operator, pagkamit ng mga groundbreaking na resulta sa pamamagitan ng pagpino sa bawat detalye. Ang open-source na diskarte ng DeepSeek ay higit na nagpapasigla sa pangkalahatang pagbuo ng malalaking modelo, at inaasahang kung ang mga katulad na modelo ay lalawak sa mga larawan, video, at higit pa, ito ay makabuluhang magpapasigla sa demand sa buong industriya.
Mga Pagkakataon para sa Mga Serbisyong Pangangatwiran ng Third-Party
Isinasaad ng data na mula nang ilabas ito, nakaipon na ang DeepSeek ng 22.15 million daily active users (DAU) sa loob lamang ng 21 araw, na nakamit ang 41.6% ng user base ng ChatGPT at lumampas sa 16.95 million daily active user ng Doubao, kaya naging ang pinakamabilis na lumalagong application sa buong mundo, nanguna sa Apple App Store/sa 157 mga bansa. Gayunpaman, habang dumarami ang mga user, walang humpay na umaatake ang mga cyber hacker sa DeepSeek app, na nagdudulot ng malaking strain sa mga server nito. Naniniwala ang mga analyst ng industriya na ito ay bahagyang dahil sa DeepSeek na nagde-deploy ng mga card para sa pagsasanay habang walang sapat na computational power para sa pangangatwiran. Ipinaalam ng isang tagaloob ng industriya ang Pagsusuri sa Teknolohiya ng AI, "Ang madalas na mga isyu sa server ay madaling mareresolba sa pamamagitan ng pagsingil ng mga bayarin o pagpopondo upang makabili ng higit pang mga makina; sa huli, ito ay nakasalalay sa mga desisyon ng DeepSeek." Nagpapakita ito ng trade-off sa pagtutok sa teknolohiya kumpara sa productization. Ang DeepSeek ay higit na umasa sa quantum quantization para sa sariling kabuhayan, na nakatanggap ng kaunting panlabas na pagpopondo, na nagreresulta sa medyo mababang presyon ng daloy ng pera at isang mas malinis na teknolohikal na kapaligiran. Sa kasalukuyan, dahil sa mga nabanggit na problema, hinihimok ng ilang user ang DeepSeek sa social media na taasan ang mga limitasyon ng paggamit o ipakilala ang mga bayad na feature para mapahusay ang kaginhawaan ng user. Bukod pa rito, sinimulan ng mga developer na gamitin ang opisyal na API o mga third-party na API para sa pag-optimize. Gayunpaman, ang bukas na platform ng DeepSeek kamakailan ay nag-anunsyo, "Ang mga kasalukuyang mapagkukunan ng server ay mahirap makuha, at ang mga pag-recharge ng serbisyo ng API ay nasuspinde."
Ito ay walang alinlangan na nagbubukas ng higit pang mga pagkakataon para sa mga third-party na vendor sa sektor ng imprastraktura ng AI. Kamakailan, maraming domestic at international cloud giant ang naglunsad ng mga modelong API ng DeepSeek—ang mga higante sa ibang bansa na Microsoft at Amazon ay kabilang sa mga unang sumali sa katapusan ng Enero. Ang domestic leader, Huawei Cloud, ay gumawa ng unang hakbang, na naglabas ng DeepSeek R1 at V3 na mga serbisyo sa pangangatwiran sa pakikipagtulungan sa Silicon-based Flow noong Pebrero 1. Ang mga ulat mula sa AI Technology Review ay nagpapahiwatig na ang mga serbisyo ng Silicon-based na Flow ay nakakita ng pagdagsa ng mga user, na epektibong "nag-crash" sa platform. Ang malalaking tatlong tech na kumpanya—BAT (Baidu, Alibaba, Tencent) at ByteDance—ay nag-isyu din ng mababang gastos, limitadong oras na mga alok simula noong Pebrero 3, na nakapagpapaalaala sa mga digmaan sa presyo ng cloud vendor noong nakaraang taon na sinindihan ng paglulunsad ng modelong V2 ng DeepSeek, kung saan nagsimulang tawagin ang DeepSeek na "price butcher." Ang galit na galit na mga aksyon ng mga cloud vendor ay sumasalamin sa naunang matibay na ugnayan sa pagitan ng Microsoft Azure at OpenAI, kung saan noong 2019, ang Microsoft ay gumawa ng malaking $1 bilyon na pamumuhunan sa OpenAI at umani ng mga benepisyo pagkatapos ng paglulunsad ng ChatGPT noong 2023. Gayunpaman, ang malapit na relasyon na ito ay nagsimulang masira pagkatapos ng Meta open-sourced na Llama, na nagpapahintulot sa iba pang mga vendor sa labas ng Microsoft Azure ecosystem na makipagkumpitensya sa kanilang malalaking modelo ng Microsoft Azure. Sa pagkakataong ito, hindi lamang nalampasan ng DeepSeek ang ChatGPT sa mga tuntunin ng init ng produkto ngunit ipinakilala rin ang mga open-source na modelo kasunod ng paglabas ng o1, katulad ng kasabihang nakapalibot sa muling pagbuhay ni Llama ng GPT-3.
Sa totoo lang, ipinoposisyon din ng mga cloud provider ang kanilang mga sarili bilang mga gateway ng trapiko para sa mga AI application, ibig sabihin, ang pagpapalalim ng ugnayan sa mga developer ay nagsasalin sa mga preemptive na benepisyo. Isinasaad ng mga ulat na mayroong mahigit 15,000 customer ang Baidu Smart Cloud na gumagamit ng DeepSeek model sa pamamagitan ng Qianfan platform sa araw ng paglulunsad ng modelo. Bukod pa rito, maraming maliliit na kumpanya ang nag-aalok ng mga solusyon, kabilang ang Silicon-based Flow, Luchen Technology, Chuanjing Technology, at iba't ibang AI Infra provider na naglunsad ng suporta para sa mga modelo ng DeepSeek. Natutunan ng Pagsusuri ng Teknolohiya ng AI na ang kasalukuyang mga pagkakataon sa pag-optimize para sa mga naka-localize na deployment ng DeepSeek ay pangunahing umiiral sa dalawang lugar: ang isa ay ang pag-optimize para sa mga katangian ng sparsity ng modelo ng MoE gamit ang pinaghalong diskarte sa pangangatwiran upang i-deploy ang 671 bilyong parameter na modelo ng MoE nang lokal habang ginagamit ang hybrid na GPU/CPU inference. Bukod pa rito, ang pag-optimize ng MLA ay mahalaga. Gayunpaman, nahaharap pa rin ang dalawang modelo ng DeepSeek sa ilang hamon sa pag-optimize ng deployment. "Dahil sa laki ng modelo at maraming mga parameter, talagang kumplikado ang pag-optimize, lalo na para sa mga lokal na pag-deploy kung saan ang pagkamit ng pinakamainam na balanse sa pagitan ng pagganap at gastos ay magiging mahirap," sabi ng isang mananaliksik mula sa Chuanjing Technology. Ang pinakamahalagang hadlang ay ang pagtagumpayan ng mga limitasyon sa kapasidad ng memorya. "Kami ay gumagamit ng isang heterogenous na diskarte sa pakikipagtulungan upang ganap na magamit ang mga CPU at iba pang mga mapagkukunan ng computational, inilalagay lamang ang mga hindi nakabahaging bahagi ng kalat-kalat na MoE matrix sa CPU/DRAM para sa pagproseso gamit ang mga operator ng CPU na may mataas na pagganap, habang ang mga siksik na bahagi ay nananatili sa GPU," paliwanag pa niya. Isinasaad ng mga ulat na ang open-source na framework ng Chuanjing na KTransformers ay pangunahing nag-iiniksyon ng iba't ibang estratehiya at operator sa orihinal na pagpapatupad ng Transformers sa pamamagitan ng isang template, na makabuluhang nagpapataas ng bilis ng inference gamit ang mga pamamaraan tulad ng CUDAGraph. Ang DeepSeek ay lumikha ng mga pagkakataon para sa mga startup na ito, dahil ang mga benepisyo sa paglago ay nagiging maliwanag; maraming kumpanya ang nag-ulat ng kapansin-pansing paglaki ng customer pagkatapos ilunsad ang DeepSeek API, na nakatanggap ng mga katanungan mula sa mga nakaraang kliyente na naghahanap ng mga optimization. Sinabi ng mga tagaloob ng industriya, "Noong nakaraan, ang mga medyo matatag na grupo ng kliyente ay madalas na naka-lock sa mga standardized na serbisyo ng mas malalaking kumpanya, na mahigpit na nakagapos sa kanilang mga bentahe sa gastos dahil sa laki. Gayunpaman, pagkatapos makumpleto ang pag-deploy ng DeepSeek-R1/V3 bago ang Spring Festival, bigla kaming nakatanggap ng mga kahilingan sa pakikipagtulungan mula sa ilang kilalang kliyente, at kahit na dati nang natutulog na mga kliyente ay nagsimulang makipag-ugnayan upang ipakilala ang aming mga serbisyo ng DeepSeek." Sa kasalukuyan, lumilitaw na ang DeepSeek ay ginagawang mas kritikal ang pagganap ng inference ng modelo, at sa mas malawak na paggamit ng malalaking modelo, patuloy itong makakaimpluwensya nang malaki sa pag-unlad sa industriya ng AI Infra. Kung ang isang modelo sa antas ng DeepSeek ay maaaring i-deploy nang lokal sa murang halaga, ito ay lubos na makakatulong sa mga pagsusumikap sa digital transformation ng gobyerno at enterprise. Gayunpaman, nagpapatuloy ang mga hamon, dahil maaaring magkaroon ng mataas na inaasahan ang ilang kliyente tungkol sa malalaking kakayahan ng modelo, na ginagawang mas maliwanag na ang pagbabalanse ng pagganap at gastos ay nagiging mahalaga sa praktikal na pag-deploy.
Upang masuri kung ang DeepSeek ay mas mahusay kaysa sa ChatGPT, mahalagang maunawaan ang kanilang mga pangunahing pagkakaiba, lakas, at mga kaso ng paggamit. Narito ang isang komprehensibong paghahambing:
Tampok/Aspekto | DeepSeek | ChatGPT |
---|---|---|
Pagmamay-ari | Binuo ng isang kumpanyang Tsino | Binuo ng OpenAI |
Source Model | Open-source | Pagmamay-ari |
Gastos | Libreng gamitin; mas murang mga opsyon sa pag-access ng API | Pagpepresyo ng subscription o pay-per-use |
Pagpapasadya | Lubos na nako-customize, na nagpapahintulot sa mga user na mag-tweak at bumuo dito | Available ang limitadong pagpapasadya |
Pagganap sa Mga Tiyak na Gawain | Excels sa ilang partikular na lugar tulad ng data analytics at information retrieval | Maraming nalalaman na may malakas na pagganap sa malikhaing pagsulat at mga gawain sa pakikipag-usap |
Suporta sa Wika | Malakas na pagtuon sa wika at kultura ng Tsino | Malawak na suporta sa wika ngunit nakasentro sa US |
Gastos sa Pagsasanay | Mas mababang mga gastos sa pagsasanay, na-optimize para sa kahusayan | Mas mataas na gastos sa pagsasanay, na nangangailangan ng malaking mapagkukunan ng computational |
Pagkakaiba-iba ng Tugon | Maaaring mag-alok ng iba't ibang mga tugon, posibleng naiimpluwensyahan ng kontekstong geopolitical | Mga pare-parehong sagot batay sa data ng pagsasanay |
Target na Audience | Naglalayon sa mga developer at mananaliksik na nagnanais ng flexibility | Naglalayon sa mga pangkalahatang user na naghahanap ng mga kakayahan sa pakikipag-usap |
Use Cases | Mas mahusay para sa pagbuo ng code at mabilis na mga gawain | Tamang-tama para sa pagbuo ng teksto, pagsagot sa mga query, at pakikisali sa diyalogo |
Isang Kritikal na Pananaw sa "Paggambala sa Nvidia"
Sa kasalukuyan, bukod sa Huawei, ilang mga domestic chip manufacturer tulad ng Moore Threads, Muxi, Biran Technology, at Tianxu Zhixin ay umaangkop din sa dalawang modelo ng DeepSeek. Sinabi ng isang tagagawa ng chip sa AI Technology Review, "Ang istraktura ng DeepSeek ay nagpapakita ng pagbabago, ngunit nananatili itong isang LLM. Ang aming adaptasyon sa DeepSeek ay pangunahing nakatuon sa mga aplikasyon ng pangangatwiran, na ginagawang medyo diretso at mabilis ang teknikal na pagpapatupad." Gayunpaman, ang diskarte ng MoE ay nangangailangan ng mas mataas na mga pangangailangan sa mga tuntunin ng pag-iimbak at pamamahagi, kasama ang pagtiyak ng pagiging tugma kapag nagde-deploy sa mga domestic chips, na nagpapakita ng maraming hamon sa engineering na nangangailangan ng resolusyon sa panahon ng adaptasyon. "Sa kasalukuyan, ang domestic computational power ay hindi tumutugma sa Nvidia sa usability at stability, na nangangailangan ng orihinal na factory participation para sa software environment setup, troubleshooting, at foundational performance optimization," sabi ng isang industry practitioner batay sa praktikal na karanasan. Kasabay nito, "Dahil sa malaking sukat ng parameter ng DeepSeek R1, ang domestic computational power ay nangangailangan ng mas maraming node para sa parallelization. Bukod pa rito, ang mga detalye ng domestic hardware ay medyo nasa likod pa rin; halimbawa, ang Huawei 910B ay kasalukuyang hindi maaaring suportahan ang FP8 inference na ipinakilala ng DeepSeek." Isa sa mga highlight ng DeepSeek V3 model ay ang pagpapakilala ng isang FP8 mixed precision training framework, na epektibong napatunayan sa isang napakalaking modelo, na nagmamarka ng isang makabuluhang tagumpay. Noong nakaraan, ang mga pangunahing manlalaro tulad ng Microsoft at Nvidia ay nagmungkahi ng kaugnay na trabaho, ngunit ang mga pagdududa ay nananatili sa loob ng industriya tungkol sa pagiging posible. Nauunawaan na kumpara sa INT8, ang pangunahing bentahe ng FP8 ay ang pag-quantize ng post-training ay maaaring makamit ang halos walang pagkawalang katumpakan habang makabuluhang pinahuhusay ang bilis ng hinuha. Kung ihahambing sa FP16, maaaring matanto ng FP8 ang hanggang dalawang beses na acceleration sa H20 ng Nvidia at higit sa 1.5 beses na acceleration sa H100. Kapansin-pansin, habang ang mga talakayan na pumapalibot sa takbo ng domestic computational power kasama ang mga domestic na modelo ay nakakakuha ng momentum, ang haka-haka tungkol sa kung ang Nvidia ay maaaring magambala, at kung ang CUDA moat ay maaaring ma-bypass, ay nagiging laganap. Ang isang hindi maikakaila na katotohanan ay ang DeepSeek ay talagang nagdulot ng malaking pagbaba sa halaga ng merkado ng Nvidia, ngunit ang pagbabagong ito ay nagtataas ng mga katanungan tungkol sa high-end na computational power integrity ng Nvidia. Hinahamon ang dating tinatanggap na mga salaysay patungkol sa capital-driven computational accumulation, ngunit nananatiling mahirap para sa Nvidia na ganap na mapalitan sa mga senaryo ng pagsasanay. Ang pagsusuri sa malalim na paggamit ng DeepSeek ng CUDA ay nagpapakita na ang flexibility—gaya ng paggamit ng SM para sa komunikasyon o direktang pagmamanipula ng mga network card—ay hindi magagawa para sa mga regular na GPU na tanggapin. Binibigyang-diin ng mga pananaw sa industriya na ang moat ng Nvidia ay sumasaklaw sa buong CUDA ecosystem sa halip na CUDA mismo, at ang mga tagubilin ng PTX (Parallel Thread Execution) na ginagamit ng DeepSeek ay bahagi pa rin ng CUDA ecosystem. "Sa maikling panahon, ang computational power ng Nvidia ay hindi maaaring lampasan-ito ay lalong malinaw sa pagsasanay; gayunpaman, ang pag-deploy ng mga domestic card para sa pangangatwiran ay magiging medyo mas madali, kaya malamang na mas mabilis ang pag-unlad. Ang adaptasyon ng mga domestic card ay pangunahing nakatuon sa hinuha; wala pang nakapagsanay ng isang modelo ng pagganap ng DeepSeek sa mga domestic card sa sukat, "sabi ng isang analyst ng industriya sa AI Review. Sa pangkalahatan, mula sa pananaw ng hinuha, ang mga pangyayari ay nakapagpapatibay para sa mga domestic malalaking modelo ng chips. Ang mga pagkakataon para sa mga tagagawa ng domestic chip sa loob ng larangan ng hinuha ay mas maliwanag dahil sa labis na mataas na mga kinakailangan ng pagsasanay, na humahadlang sa pagpasok. Ipinagtanggol ng mga analyst na sapat na ang paggamit lamang ng mga domestic inference card; kung kinakailangan, posible ang pagkuha ng karagdagang makina, samantalang ang mga modelo ng pagsasanay ay nagdudulot ng mga natatanging hamon—maaaring maging mabigat ang pamamahala ng mas maraming machine, at ang mas mataas na mga rate ng error ay maaaring negatibong makaapekto sa mga resulta ng pagsasanay. Ang pagsasanay ay mayroon ding mga partikular na kinakailangan sa cluster scale, habang ang mga hinihingi sa mga cluster para sa inference ay hindi kasinghigpit, kaya pinapagaan ang mga kinakailangan ng GPU. Sa kasalukuyan, ang pagganap ng nag-iisang H20 card ng Nvidia ay hindi hihigit sa pagganap ng Huawei o Cambrian; ang lakas nito ay nasa clustering. Batay sa pangkalahatang epekto sa computational power market, ang tagapagtatag ng Luchen Technology na si You Yang, ay nagsabi sa isang panayam sa AI Technology Review, "Maaaring pansamantalang sirain ng DeepSeek ang pagtatatag at pagrenta ng mga ultra-large na computational clusters ng pagsasanay. Sa katagalan, sa pamamagitan ng makabuluhang pagbawas sa mga gastos na nauugnay sa malalaking modelo ng pagsasanay, pangangatwiran, at mga aplikasyon, ang demand sa merkado ay malamang na sumisikat sa patuloy na pangangailangan ng AI. ang computational power market." Bukod pa rito, "Ang tumaas na pangangailangan ng DeepSeek para sa mga serbisyo sa pangangatwiran at fine-tuning ay mas tugma sa domestic computational landscape, kung saan ang mga lokal na kapasidad ay medyo mahina, na tumutulong na mabawasan ang basura mula sa idle resources post-cluster establishment; ito ay lumilikha ng mga praktikal na pagkakataon para sa mga manufacturer sa iba't ibang antas ng domestic computational ecosystem." Nakipagtulungan ang Luchen Technology sa Huawei Cloud upang ilunsad ang DeepSeek R1 series reasoning API at cloud imaging services batay sa domestic computational power. Nagpahayag si You Yang ng optimismo tungkol sa hinaharap: "Ang DeepSeek ay naglalagay ng kumpiyansa sa mga solusyon na ginawa sa loob ng bansa, na naghihikayat ng higit na sigasig at pamumuhunan sa mga domestic computational na kakayahan sa hinaharap."

Konklusyon
Kung ang DeepSeek ay "mas mahusay" kaysa sa ChatGPT ay depende sa mga partikular na pangangailangan at layunin ng user. Para sa mga gawaing nangangailangan ng kakayahang umangkop, mababang gastos, at pagpapasadya, maaaring mas mahusay ang DeepSeek. Para sa malikhaing pagsulat, pangkalahatang pagtatanong, at madaling gamitin sa pakikipag-usap na interface, maaaring manguna ang ChatGPT. Ang bawat tool ay may iba't ibang layunin, kaya ang pagpili ay lubos na nakasalalay sa konteksto kung saan ginagamit ang mga ito.
Mga Kable ng Kontrol
Structured Cabling System
Network at Data, Fiber-Optic Cable, Patch Cord, Mga Module, Faceplate
Abr.16-18, 2024 Middle-East-Energy sa Dubai
Abr.16-18, 2024 Securika sa Moscow
Ika-9 ng Mayo, 2024 MGA BAGONG PRODUKTO at TEKNOLOHIYA NA LUNSAD NA EVENT sa Shanghai
Okt.22-25, 2024 SECURITY CHINA sa Beijing
Nob.19-20, 2024 KONEKTADO MUNDO KSA
Oras ng post: Peb-10-2025