I prudutti generativi di serviziu di intelligenza artificiale cum'è ChatGPT è Midjourney attiranu l'attenzione di u mercatu. In questu sfondate, l'Associazione Coreana di l'Industria di Intelligenza Artificiale (KAIIA) hà tenutu u "Gen-AI Summit 2023" à COEX in Samseong-dong, Seoul. L'avvenimentu di dui ghjorni hà per scopu di prumove è avanzà u sviluppu di l'intelligenza artificiale generativa (AI), chì espansione tuttu u mercatu.
U primu ghjornu, cuminciendu cù u discorsu principale di Jin Junhe, capu di u dipartimentu di l'affari di fusione di intelligenza artificiale, grandi cumpagnie tecnologiche cum'è Microsoft, Google è AWS chì sviluppanu attivamente è servenu ChatGPT, è ancu industrie fabless chì sviluppanu semiconduttori di intelligenza artificiale anu assistitu è . hà fattu Presentazioni pertinenti, cumprese "Cambiamenti NLP purtati da ChatGPT" da u CEO di Persona AI Yoo Seung-jae, è "Custruisce un Chip d'Inferenza AI High Performance, Power-Efficient è Scalable per ChatGPT" da Furiosa AI CEO Baek Jun-ho .
Jin Junhe hà dettu chì in u 2023, l'annu di a guerra di l'intelligenza artificiale, u plug ChatGPT entre in u mercatu cum'è una nova regula di ghjocu per l'enorme cumpetizione di mudelli di lingua trà Google è MS. In questu casu, prevede opportunità in semiconduttori AI è acceleratori chì sustenenu mudelli AI.
Furiosa AI hè una sucietà rapprisentativa di fabricazione di semiconduttori AI in Corea. U CEO di Furiosa AI, Baek, chì travaglia duramente per sviluppà semiconduttori AI di u scopu generale per ritruvà cù Nvidia, chì detene a maiò parte di u mercatu mundiale in IA iperscale, hè cunvinta chì "a dumanda di chips in u campu di AI sploderà in u futuru. "
Siccomu i servizii AI diventanu più cumplessi, inevitabbilmente affruntà i costi di l'infrastruttura aumentati. I prudutti GPU A100 è H100 attuali di Nvidia anu l'altu rendimentu è a putenza di computing necessaria per l'informatica di intelligenza artificiale, ma per via di l'aumentu di i costi totali, cum'è un altu cunsumu d'energia è i costi di implementazione, ancu l'imprese ultra-large sò attenti à cambià à prudutti di a nova generazione. U rapportu costu-benefiziu hà manifestatu preoccupazione.
In questu rispettu, Baek hà previstu a direzzione di u sviluppu tecnologicu, dicendu chì in più di più è più cumpagnie chì adoptanu suluzioni di intelligenza artificiale, a dumanda di u mercatu serà di maximizà l'efficienza è u rendiment in un sistema specificu, cum'è "risparmio d'energia".
Inoltre, hà enfatizatu chì u puntu di diffusione di u sviluppu di i semiconduttori di l'intelligenza artificiale in Cina hè "usabilità", è hà dettu cumu per risolve u sustegnu di l'ambiente di sviluppu è "programmabilità" serà a chjave.
Nvidia hà custruitu CUDA per dimustrà u so ecosistema di supportu, è assicurendu chì a cumunità di sviluppu sustene i quadri rappresentativi per l'apprendimentu prufondu cum'è TensorFlow è Pytoch hè diventatu una strategia di sopravvivenza impurtante per a produzzione.
Tempu di Post: 29-May-2023