Ar gyfer BMS, BUS, Diwydiannol, Cebl Offeryniaeth.

Wrth i Ŵyl y Gwanwyn ddod i ben, mae'r cyffro ynghylch DeepSeek yn parhau'n gryf. Tynnodd y gwyliau diweddar sylw at ymdeimlad sylweddol o gystadleuaeth o fewn y diwydiant technoleg, gyda llawer yn trafod ac yn dadansoddi'r "catfish" hwn. Mae Silicon Valley yn profi ymdeimlad digynsail o argyfwng: mae cefnogwyr ffynhonnell agored yn lleisio eu barn eto, a hyd yn oed mae OpenAI yn ailystyried a oedd ei strategaeth ffynhonnell gaeedig yn ddewis gorau. Mae'r paradigm newydd o gostau cyfrifiadurol is wedi sbarduno adwaith cadwynol ymhlith cewri sglodion fel Nvidia, gan arwain at golledion gwerth marchnad un diwrnod record yn hanes marchnad stoc yr Unol Daleithiau, tra bod asiantaethau'r llywodraeth yn ymchwilio i gydymffurfiaeth y sglodion a ddefnyddir gan DeepSeek. Ymhlith adolygiadau cymysg o DeepSeek dramor, yn ddomestig, mae'n profi twf rhyfeddol. Ar ôl lansio'r model R1, mae'r ap cysylltiedig wedi gweld cynnydd mewn traffig, sy'n dangos y bydd twf mewn sectorau cymwysiadau yn gyrru'r ecosystem AI cyffredinol ymlaen. Yr agwedd gadarnhaol yw y bydd DeepSeek yn ehangu posibiliadau cymwysiadau, gan awgrymu na fydd dibynnu ar ChatGPT mor ddrud yn y dyfodol. Mae'r newid hwn wedi'i adlewyrchu yng ngweithgareddau diweddar OpenAI, gan gynnwys darparu model rhesymu o'r enw o3-mini i ddefnyddwyr am ddim mewn ymateb i DeepSeek R1, yn ogystal ag uwchraddiadau dilynol a wnaeth gadwyn feddwl o3-mini yn gyhoeddus. Mynegodd llawer o ddefnyddwyr tramor ddiolchgarwch i DeepSeek am y datblygiadau hyn, er bod y gadwyn feddwl hon yn gwasanaethu fel crynodeb.
Yn optimistaidd, mae'n amlwg bod DeepSeek yn uno chwaraewyr domestig. Gyda'i ffocws ar leihau costau hyfforddi, mae amryw o weithgynhyrchwyr sglodion i fyny'r afon, darparwyr cwmwl canolradd, a nifer o gwmnïau newydd yn ymuno'n weithredol â'r ecosystem, gan wella effeithlonrwydd cost ar gyfer defnyddio'r model DeepSeek. Yn ôl papurau DeepSeek, dim ond 2.788 miliwn o oriau GPU H800 sydd eu hangen ar gyfer hyfforddiant cyflawn y model V3, ac mae'r broses hyfforddi yn sefydlog iawn. Mae pensaernïaeth MoE (Cymysgedd o Arbenigwyr) yn hanfodol ar gyfer lleihau costau cyn-hyfforddi gan ffactor o ddeg o'i gymharu â Llama 3 gyda 405 biliwn o baramedrau. Ar hyn o bryd, V3 yw'r model cyntaf a gydnabyddir yn gyhoeddus sy'n dangos prinder mor uchel mewn MoE. Yn ogystal, mae'r MLA (Sylw Aml-Haen) yn gweithio'n synergaidd, yn enwedig mewn agweddau rhesymu. "Po fwyaf prin yw'r MoE, y mwyaf yw maint y swp sydd ei angen yn ystod rhesymu i ddefnyddio pŵer cyfrifiadurol yn llawn, gyda maint y KVCache yn ffactor cyfyngu allweddol; mae'r MLA yn lleihau maint KVCache yn sylweddol," nododd ymchwilydd o Chuanjing Technology mewn dadansoddiad ar gyfer AI Technology Review. At ei gilydd, mae llwyddiant DeepSeek yn gorwedd mewn cyfuniad o wahanol dechnolegau, nid dim ond un. Mae arbenigwyr yn y diwydiant yn canmol galluoedd peirianneg tîm DeepSeek, gan nodi eu rhagoriaeth mewn hyfforddiant cyfochrog ac optimeiddio gweithredwyr, gan gyflawni canlyniadau arloesol trwy fireinio pob manylyn. Mae dull ffynhonnell agored DeepSeek yn tanio ymhellach ddatblygiad cyffredinol modelau mawr, a rhagwelir, os bydd modelau tebyg yn ehangu i ddelweddau, fideos, a mwy, y bydd hyn yn ysgogi galw sylweddol ar draws y diwydiant.
Cyfleoedd ar gyfer Gwasanaethau Rhesymu Trydydd Parti
Mae data'n dangos, ers ei ryddhau, fod DeepSeek wedi cronni 22.15 miliwn o ddefnyddwyr gweithredol dyddiol (DAU) o fewn dim ond 21 diwrnod, gan gyflawni 41.6% o sylfaen defnyddwyr ChatGPT a rhagori ar 16.95 miliwn o ddefnyddwyr gweithredol dyddiol Doubao, gan ddod yn gymhwysiad sy'n tyfu gyflymaf yn fyd-eang, gan frig Apple App Store mewn 157 o wledydd/rhanbarthau. Fodd bynnag, er bod defnyddwyr wedi heidio mewn llu, mae hacwyr seiber wedi bod yn ymosod yn ddi-baid ar ap DeepSeek, gan achosi straen sylweddol ar ei weinyddion. Mae dadansoddwyr diwydiant yn credu bod hyn yn rhannol oherwydd bod DeepSeek yn defnyddio cardiau ar gyfer hyfforddiant tra nad oes ganddynt ddigon o bŵer cyfrifiadurol ar gyfer rhesymu. Dywedodd rhywun o'r tu mewn i'r diwydiant wrth AI Technology Review, "Gellir datrys y problemau gweinydd mynych yn hawdd trwy godi ffioedd neu gyllid i brynu mwy o beiriannau; yn y pen draw, mae'n dibynnu ar benderfyniadau DeepSeek." Mae hyn yn cyflwyno cyfaddawd wrth ganolbwyntio ar dechnoleg yn erbyn cynhyrchu. Mae DeepSeek wedi dibynnu'n helaeth ar feintioli cwantwm ar gyfer hunangynhaliaeth, ar ôl derbyn ychydig o gyllid allanol, gan arwain at bwysau llif arian cymharol isel ac amgylchedd technolegol purach. Ar hyn o bryd, yng ngoleuni'r problemau a grybwyllwyd uchod, mae rhai defnyddwyr yn annog DeepSeek ar gyfryngau cymdeithasol i godi trothwyon defnydd neu gyflwyno nodweddion taledig i wella cysur defnyddwyr. Yn ogystal, mae datblygwyr wedi dechrau defnyddio'r API swyddogol neu APIs trydydd parti ar gyfer optimeiddio. Fodd bynnag, cyhoeddodd platfform agored DeepSeek yn ddiweddar, "Mae adnoddau gweinydd cyfredol yn brin, ac mae ail-godiadau gwasanaeth API wedi'u hatal."
Mae hyn yn sicr o agor mwy o gyfleoedd i werthwyr trydydd parti yn y sector seilwaith AI. Yn ddiweddar, mae nifer o gewri cwmwl domestig a rhyngwladol wedi lansio APIs model DeepSeek—roedd y cewri tramor Microsoft ac Amazon ymhlith y cyntaf i ymuno ddiwedd mis Ionawr. Gwnaeth yr arweinydd domestig, Huawei Cloud, y cam cyntaf, gan ryddhau gwasanaethau rhesymu DeepSeek R1 a V3 mewn cydweithrediad â Flow, sy'n seiliedig ar Silicon, ar Chwefror 1. Mae adroddiadau gan AI Technology Review yn dangos bod gwasanaethau Flow, sy'n seiliedig ar Silicon, wedi gweld mewnlifiad o ddefnyddwyr, gan "chwalu" y platfform yn effeithiol. Cyhoeddodd y tri chwmni technoleg mawr—BAT (Baidu, Alibaba, Tencent) a ByteDance—gynigion cost isel, amser cyfyngedig hefyd gan ddechrau Chwefror 3, sy'n atgoffa rhywun o ryfeloedd prisiau gwerthwyr cwmwl y llynedd a daniwyd gan lansiad model V2 DeepSeek, lle dechreuwyd galw DeepSeek yn "gigydd prisiau". Mae gweithredoedd gwyllt gwerthwyr cwmwl yn adleisio'r cysylltiadau cryf cynharach rhwng Microsoft Azure ac OpenAI, lle yn 2019, gwnaeth Microsoft fuddsoddiad sylweddol o $1 biliwn yn OpenAI a medi manteision ar ôl lansio ChatGPT yn 2023. Fodd bynnag, dechreuodd y berthynas agos hon chwalu ar ôl i Meta wneud Llama yn ffynhonnell agored, gan ganiatáu i werthwyr eraill y tu allan i ecosystem Microsoft Azure gystadlu â'u modelau mawr. Yn yr achos hwn, nid yn unig y mae DeepSeek wedi rhagori ar ChatGPT o ran gwres cynnyrch ond mae hefyd wedi cyflwyno modelau ffynhonnell agored yn dilyn rhyddhau o1, yn debyg i'r cyffro ynghylch adfywiad Llama o GPT-3.
Mewn gwirionedd, mae darparwyr cwmwl hefyd yn gosod eu hunain fel pyrth traffig ar gyfer cymwysiadau AI, sy'n golygu bod cysylltiadau dyfnhau â datblygwyr yn trosi'n fanteision rhagataliol. Mae adroddiadau'n dangos bod gan Baidu Smart Cloud dros 15,000 o gwsmeriaid yn defnyddio'r model DeepSeek trwy blatfform Qianfan ar ddiwrnod lansio'r model. Yn ogystal, mae sawl cwmni llai yn cynnig atebion, gan gynnwys Flow wedi'i seilio ar Silicon, Luchen Technology, Chuanjing Technology, ac amrywiol ddarparwyr Seilwaith AI sydd wedi lansio cefnogaeth ar gyfer modelau DeepSeek. Mae AI Technology Review wedi dysgu bod cyfleoedd optimeiddio cyfredol ar gyfer lleoliadau lleol o DeepSeek yn bodoli'n bennaf mewn dau faes: un yw optimeiddio ar gyfer nodweddion prinder y model MoE gan ddefnyddio dull rhesymu cymysg i ddefnyddio'r model MoE 671 biliwn o baramedrau yn lleol wrth ddefnyddio casgliad GPU/CPU hybrid. Yn ogystal, mae optimeiddio MLA yn hanfodol. Fodd bynnag, mae dau fodel DeepSeek yn dal i wynebu rhai heriau o ran optimeiddio lleoliadau. "Oherwydd maint y model a'r nifer o baramedrau, mae optimeiddio yn wir yn gymhleth, yn enwedig ar gyfer defnyddiau lleol lle bydd cyflawni cydbwysedd gorau posibl rhwng perfformiad a chost yn heriol," meddai ymchwilydd o Chuanjing Technology. Y rhwystr mwyaf arwyddocaol yw goresgyn cyfyngiadau capasiti cof. "Rydym yn mabwysiadu dull cydweithio heterogenaidd i ddefnyddio CPUs ac adnoddau cyfrifiadurol eraill yn llawn, gan osod dim ond y rhannau nad ydynt yn cael eu rhannu o'r matrics MoE prin ar CPU/DRAM ar gyfer prosesu gan ddefnyddio gweithredwyr CPU perfformiad uchel, tra bod y rhannau dwys yn aros ar y GPU," eglurodd ymhellach. Mae adroddiadau'n dangos bod fframwaith ffynhonnell agored Chuanjing, KTransformers, yn bennaf yn chwistrellu amrywiol strategaethau a gweithredwyr i weithrediad gwreiddiol Transformers trwy dempled, gan wella cyflymder casglu yn sylweddol gan ddefnyddio dulliau fel CUDAGraph. Mae DeepSeek wedi creu cyfleoedd i'r cwmnïau newydd hyn, wrth i fanteision twf ddod yn amlwg; mae llawer o gwmnïau wedi nodi twf amlwg mewn cwsmeriaid ar ôl lansio API DeepSeek, gan dderbyn ymholiadau gan gleientiaid blaenorol yn chwilio am optimeiddiadau. Mae pobl o fewn y diwydiant wedi nodi, "Yn y gorffennol, roedd grwpiau cleientiaid sefydledig yn aml wedi'u cloi i wasanaethau safonol cwmnïau mwy, wedi'u rhwymo'n dynn gan eu manteision cost oherwydd graddfa. Fodd bynnag, ar ôl cwblhau'r defnydd o DeepSeek-R1/V3 cyn Gŵyl y Gwanwyn, cawsom geisiadau cydweithredu yn sydyn gan sawl cleient adnabyddus, a hyd yn oed cleientiaid a oedd yn segur gynt a gychwynnodd gysylltiad i gyflwyno ein gwasanaethau DeepSeek." Ar hyn o bryd, mae'n ymddangos bod DeepSeek yn gwneud perfformiad casglu modelau yn gynyddol hanfodol, a chyda mabwysiadu modelau mawr yn ehangach, bydd hyn yn parhau i ddylanwadu ar ddatblygiad yn y diwydiant Seilwaith AI yn sylweddol. Pe bai modd defnyddio model lefel DeepSeek yn lleol am gost isel, byddai'n cynorthwyo ymdrechion trawsnewid digidol y llywodraeth a mentrau yn fawr. Fodd bynnag, mae heriau'n parhau, gan y gallai rhai cleientiaid fod â disgwyliadau uchel o ran galluoedd modelau mawr, gan ei gwneud hi'n fwy amlwg bod cydbwyso perfformiad a chost yn dod yn hanfodol mewn defnydd ymarferol.
I werthuso a yw DeepSeek yn well na ChatGPT, mae'n hanfodol deall eu prif wahaniaethau, cryfderau ac achosion defnydd. Dyma gymhariaeth gynhwysfawr:
Nodwedd/Agwedd | DeepSeek | SgwrsGPT |
---|---|---|
Perchnogaeth | Wedi'i ddatblygu gan gwmni Tsieineaidd | Datblygwyd gan OpenAI |
Model Ffynhonnell | Ffynhonnell agored | Perchnogol |
Cost | Am ddim i'w ddefnyddio; opsiynau mynediad API rhatach | Prisio tanysgrifiad neu dalu fesul defnydd |
Addasu | Addasadwy iawn, gan ganiatáu i ddefnyddwyr ei addasu ac adeiladu arno | Addasu cyfyngedig ar gael |
Perfformiad mewn Tasgau Penodol | Yn rhagori mewn rhai meysydd fel dadansoddi data ac adfer gwybodaeth | Amryddawn gyda pherfformiad cryf mewn ysgrifennu creadigol a thasgau sgwrsio |
Cymorth Iaith | Ffocws cryf ar iaith a diwylliant Tsieineaidd | Cefnogaeth eang i ieithoedd ond yn canolbwyntio ar yr Unol Daleithiau |
Cost Hyfforddi | Costau hyfforddi is, wedi'u optimeiddio ar gyfer effeithlonrwydd | Costau hyfforddi uwch, sy'n gofyn am adnoddau cyfrifiadurol sylweddol |
Amrywiad Ymateb | Gall gynnig ymatebion gwahanol, o bosibl wedi'u dylanwadu gan y cyd-destun geo-wleidyddol | Atebion cyson yn seiliedig ar ddata hyfforddi |
Cynulleidfa Darged | Wedi'i anelu at ddatblygwyr ac ymchwilwyr sydd eisiau hyblygrwydd | Wedi'i anelu at ddefnyddwyr cyffredinol sy'n chwilio am alluoedd sgwrsio |
Achosion Defnydd | Yn fwy effeithlon ar gyfer cynhyrchu cod a thasgau cyflym | Yn ddelfrydol ar gyfer cynhyrchu testun, ateb ymholiadau, ac ymgysylltu mewn deialog |
Persbectif Beirniadol ar "Amharu ar Nvidia"
Ar hyn o bryd, ar wahân i Huawei, mae nifer o wneuthurwyr sglodion domestig fel Moore Threads, Muxi, Biran Technology, a Tianxu Zhixin hefyd yn addasu i ddau fodel DeepSeek. Dywedodd gwneuthurwr sglodion wrth AI Technology Review, "Mae strwythur DeepSeek yn dangos arloesedd, ond mae'n parhau i fod yn LLM. Mae ein haddasiad i DeepSeek yn canolbwyntio'n bennaf ar gymwysiadau rhesymu, gan wneud gweithrediad technegol yn eithaf syml a chyflym." Fodd bynnag, mae'r dull MoE yn gofyn am ofynion uwch o ran storio a dosbarthu, ynghyd â sicrhau cydnawsedd wrth ei ddefnyddio gyda sglodion domestig, gan gyflwyno nifer o heriau peirianneg y mae angen eu datrys yn ystod yr addasu. "Ar hyn o bryd, nid yw pŵer cyfrifiadurol domestig yn cyfateb i Nvidia o ran defnyddioldeb a sefydlogrwydd, gan ei gwneud yn ofynnol i'r ffatri wreiddiol gymryd rhan ar gyfer sefydlu amgylchedd meddalwedd, datrys problemau, ac optimeiddio perfformiad sylfaenol," meddai ymarferydd yn y diwydiant yn seiliedig ar brofiad ymarferol. Ar yr un pryd, "Oherwydd graddfa paramedr fawr DeepSeek R1, mae pŵer cyfrifiadurol domestig yn gofyn am fwy o nodau ar gyfer paraleleiddio. Yn ogystal, mae'r manylebau caledwedd domestig yn dal i fod ychydig ar ei hôl hi; er enghraifft, ar hyn o bryd ni all y Huawei 910B gefnogi'r casgliad FP8 a gyflwynwyd gan DeepSeek." Un o uchafbwyntiau model DeepSeek V3 yw cyflwyno fframwaith hyfforddi manwl gywirdeb cymysg FP8, sydd wedi'i ddilysu'n effeithiol ar fodel eithriadol o fawr, gan nodi cyflawniad sylweddol. Yn flaenorol, awgrymodd chwaraewyr mawr fel Microsoft ac Nvidia waith cysylltiedig, ond mae amheuon yn parhau o fewn y diwydiant ynghylch hyfywedd. Deellir, o'i gymharu ag INT8, mai prif fantais FP8 yw y gall meintioli ôl-hyfforddi gyflawni manwl gywirdeb bron yn ddi-golled wrth wella cyflymder casglu yn sylweddol. Wrth gymharu ag FP16, gall FP8 wireddu hyd at ddwywaith cyflymiad ar H20 Nvidia a thros 1.5 gwaith cyflymiad ar yr H100. Yn nodedig, wrth i drafodaethau ynghylch y duedd o fodelau pŵer cyfrifiadurol domestig ynghyd â modelau domestig ennill momentwm, mae dyfalu ynghylch a ellid tarfu ar Nvidia, ac a ellid osgoi ffos CUDA, yn dod yn fwyfwy cyffredin. Un ffaith ddiymwad yw bod DeepSeek wedi achosi gostyngiad sylweddol yng ngwerth marchnad Nvidia, ond mae'r newid hwn yn codi cwestiynau ynghylch uniondeb pŵer cyfrifiadurol pen uchel Nvidia. Mae naratifau a dderbyniwyd yn flaenorol ynghylch cronni cyfrifiadurol sy'n cael ei yrru gan gyfalaf yn cael eu herio, ond mae'n parhau i fod yn anodd i Nvidia gael ei disodli'n llawn mewn senarios hyfforddi. Mae dadansoddiad o ddefnydd dwfn DeepSeek o CUDA yn dangos nad yw hyblygrwydd—megis defnyddio SM ar gyfer cyfathrebu neu drin cardiau rhwydwaith yn uniongyrchol—yn ymarferol i GPUs rheolaidd ei gynnwys. Mae safbwyntiau'r diwydiant yn pwysleisio bod ffos Nvidia yn cwmpasu'r ecosystem CUDA cyfan yn hytrach na CUDA ei hun yn unig, ac mae'r cyfarwyddiadau PTX (Parallel Thread Execution) y mae DeepSeek yn eu defnyddio yn dal i fod yn rhan o ecosystem CUDA. "Yn y tymor byr, ni ellir osgoi pŵer cyfrifiadurol Nvidia—mae hyn yn arbennig o glir mewn hyfforddiant; fodd bynnag, bydd defnyddio cardiau domestig ar gyfer rhesymu yn gymharol haws, felly mae'n debyg y bydd cynnydd yn gyflymach. Mae addasu cardiau domestig yn canolbwyntio'n bennaf ar gasgliad; nid oes neb wedi llwyddo eto i hyfforddi model o berfformiad DeepSeek ar gardiau domestig ar raddfa fawr," sylwodd dadansoddwr diwydiant wrth AI Technology Review. Ar y cyfan, o safbwynt casgliad, mae'r amgylchiadau'n galonogol ar gyfer sglodion model mawr domestig. Mae'r cyfleoedd i weithgynhyrchwyr sglodion domestig o fewn maes casglu yn fwy amlwg oherwydd gofynion rhy uchel hyfforddiant, sy'n rhwystro mynediad. Mae dadansoddwyr yn dadlau bod defnyddio cardiau casglu domestig yn unig yn ddigon; os oes angen, mae caffael peiriant ychwanegol yn ymarferol, tra bod modelau hyfforddi yn cyflwyno heriau unigryw—gall rheoli nifer cynyddol o beiriannau ddod yn feichus, a gall cyfraddau gwall uwch effeithio'n negyddol ar ganlyniadau hyfforddi. Mae gan hyfforddiant ofynion graddfa clwstwr penodol hefyd, tra nad yw'r gofynion ar glystyrau ar gyfer casglu mor llym, gan leddfu gofynion y GPU. Ar hyn o bryd, nid yw perfformiad cerdyn H20 sengl Nvidia yn rhagori ar berfformiad Huawei na Cambrian; mae ei gryfder yn gorwedd mewn clystyru. Yn seiliedig ar yr effaith gyffredinol ar y farchnad pŵer cyfrifiadurol, nododd sylfaenydd Luchen Technology, You Yang, mewn cyfweliad ag AI Technology Review, "Gall DeepSeek danseilio sefydlu a rhentu clystyrau cyfrifiadurol hyfforddi hynod fawr dros dro. Yn y tymor hir, trwy leihau'r costau sy'n gysylltiedig â hyfforddiant, rhesymu a chymwysiadau modelau mawr yn sylweddol, mae'n debygol y bydd galw'r farchnad yn cynyddu. Felly, bydd fersiynau dilynol o AI yn seiliedig ar hyn yn gyrru galw cynaliadwy yn y farchnad pŵer cyfrifiadurol yn barhaus." Yn ogystal, "Mae galw cynyddol DeepSeek am wasanaethau rhesymu a mireinio yn fwy cydnaws â'r dirwedd gyfrifiadurol ddomestig, lle mae capasiti lleol yn gymharol wan, gan helpu i liniaru gwastraff o adnoddau segur ar ôl sefydlu clwstwr; mae hyn yn creu cyfleoedd hyfyw i weithgynhyrchwyr ar draws gwahanol lefelau o'r ecosystem gyfrifiadurol ddomestig." Mae Luchen Technology wedi cydweithio â Huawei Cloud i lansio API rhesymu cyfres R1 DeepSeek a gwasanaethau delweddu cwmwl yn seiliedig ar bŵer cyfrifiadurol domestig. Mynegodd You Yang optimistiaeth am y dyfodol: "Mae DeepSeek yn meithrin hyder mewn atebion a gynhyrchir yn ddomestig, gan annog mwy o frwdfrydedd a buddsoddiad mewn galluoedd cyfrifiadurol domestig yn y dyfodol."

Casgliad
Mae a yw DeepSeek yn "well" na ChatGPT yn dibynnu ar anghenion ac amcanion penodol y defnyddiwr. Ar gyfer tasgau sydd angen hyblygrwydd, cost isel, ac addasiad, gall DeepSeek fod yn well. Ar gyfer ysgrifennu creadigol, ymholiadau cyffredinol, a rhyngwynebau sgwrsio hawdd eu defnyddio, gall ChatGPT gymryd yr awenau. Mae pob offeryn yn gwasanaethu gwahanol ddibenion, felly bydd y dewis yn dibynnu'n fawr ar y cyd-destun y cânt eu defnyddio ynddo.
Ceblau Rheoli
System Geblau Strwythuredig
Rhwydwaith a Data, Cebl Ffibr-Optig, Cord Patch, Modiwlau, Plât Wyneb
16eg-18fed Ebrill, 2024 Ynni'r Dwyrain Canol yn Dubai
16eg-18fed Ebrill, 2024 Securika ym Moscow
9 Mai, 2024 DIGWYDDIAD LANSIO CYNHYRCHION A THECHNOLEGAU NEWYDD yn Shanghai
Hydref 22ain-25ain, 2024 DIOGELWCH TSIEINA yn Beijing
Tachwedd 19-20, 2024 BYD CYSYLLTIEDIG KSA
Amser postio: Chwefror-10-2025