Guerra di intelligenza artificiale generativa di intelligenza artificiale, "esplode a dumanda di chip AI"

I prudutti generativi di serviziu di intelligenza artificiale cum'è ChatGPT è Midjourney attiranu l'attenzione di u mercatu.In questu sfondate, l'Associazione Coreana di l'Industria di Intelligenza Artificiale (KAIIA) hà tenutu u "Gen-AI Summit 2023" à COEX in Samseong-dong, Seoul.L'avvenimentu di dui ghjorni hà per scopu di prumove è avanzà u sviluppu di l'intelligenza artificiale generativa (AI), chì espansione tuttu u mercatu.

U primu ghjornu, cuminciendu cù u discorsu principale di Jin Junhe, capu di u dipartimentu di l'affari di fusione di intelligenza artificiale, grandi cumpagnie tecnologiche cum'è Microsoft, Google è AWS chì sviluppanu attivamente è servenu ChatGPT, è ancu industrie fabless chì sviluppanu semiconduttori di intelligenza artificiale anu assistitu è ​​​​. hà fattu Presentazioni pertinenti, cumprese "Cambiamenti NLP purtati da ChatGPT" da u CEO di Persona AI Yoo Seung-jae, è "Custruisce un Chip d'Inferenza AI High Performance, Power-Efficient è Scalable per ChatGPT" da Furiosa AI CEO Baek Jun-ho .

Jin Junhe hà dettu chì in u 2023, l'annu di a guerra di l'intelligenza artificiale, u plug ChatGPT entre in u mercatu cum'è una nova regula di ghjocu per l'enorme cumpetizione di mudelli di lingua trà Google è MS.In questu casu, prevede opportunità in semiconduttori AI è acceleratori chì sustenenu mudelli AI.

Furiosa AI hè una sucietà rapprisentativa di fabricazione di semiconduttori AI in Corea.U CEO di Furiosa AI, Baek, chì travaglia duramente per sviluppà semiconduttori AI di u scopu generale per ritruvà cù Nvidia, chì detene a maiò parte di u mercatu mundiale in IA iperscale, hè cunvinta chì "a dumanda di chips in u campu di AI sploderà in u futuru. "

Siccomu i servizii AI diventanu più cumplessi, inevitabbilmente affruntà i costi di l'infrastruttura aumentati.I prudutti GPU A100 è H100 attuali di Nvidia anu l'altu rendimentu è a putenza di computing necessaria per l'informatica di l'intelligenza artificiale, ma per via di l'aumentu di i costi totali, cum'è un altu cunsumu d'energia è i costi di implementazione, ancu l'imprese ultra-large sò attenti à cambià à prudutti di a nova generazione.U rapportu costu-benefiziu hà manifestatu preoccupazione.

In questu rispettu, Baek hà previstu a direzzione di u sviluppu tecnologicu, dicendu chì in più di più è più cumpagnie chì adoptanu suluzioni di intelligenza artificiale, a dumanda di u mercatu serà di maximizà l'efficienza è u rendiment in un sistema specificu, cum'è "risparmio d'energia".

Inoltre, hà enfatizatu chì u puntu di diffusione di u sviluppu di i semiconduttori di l'intelligenza artificiale in Cina hè "usabilità", è hà dettu cumu per risolve u sustegnu di l'ambiente di sviluppu è "programmabilità" serà a chjave.

Nvidia hà custruitu CUDA per dimustrà u so ecosistema di supportu, è assicurendu chì a cumunità di sviluppu sustene i quadri rappresentativi per l'apprendimentu prufondu cum'è TensorFlow è Pytoch hè diventatu una strategia di sopravvivenza impurtante per a produzzione.


Tempu di post: 29-May-2023