I prudutti di servizii d'intelligenza artificiale generativa cum'è ChatGPT è Midjourney stanu attirendu l'attenzione di u mercatu. In questu cuntestu, l'Associazione Coreana di l'Industria di l'Intelligenza Artificiale (KAIIA) hà urganizatu u "Gen-AI Summit 2023" à u COEX in Samseong-dong, Seoul. L'eventu di dui ghjorni hà per scopu di prumove è fà avanzà u sviluppu di l'intelligenza artificiale generativa (IA), chì sta espandendu tuttu u mercatu.
U primu ghjornu, cuminciendu cù u discorsu principale di Jin Junhe, capu di u dipartimentu cummerciale di fusione di l'intelligenza artificiale, e grande cumpagnie tecnologiche cum'è Microsoft, Google è AWS chì sviluppanu è servenu attivamente ChatGPT, è ancu l'industrie fabless chì sviluppanu semiconduttori di intelligenza artificiale anu assistitu è fattu presentazioni pertinenti, cumprese "Cambiamenti NLP purtati da ChatGPT" da u CEO di Persona AI Yoo Seung-jae, è "Custruisce un chip di inferenza AI ad alte prestazioni, efficiente in termini di energia è scalabile per ChatGPT" da u CEO di Furiosa AI Baek Jun-ho.
Jin Junhe hà dettu chì in u 2023, l'annu di a guerra di l'intelligenza artificiale, u plug ChatGPT entrerà in u mercatu cum'è una nova regula di ghjocu per l'enorme cumpetizione di mudelli linguistici trà Google è MS. In questu casu, prevede opportunità in i semiconduttori AI è l'acceleratori chì supportanu i mudelli AI.
Furiosa AI hè una sucietà fabless chì fabrica semiconduttori AI in Corea. U CEO di Furiosa AI, Baek, chì travaglia duramente per sviluppà semiconduttori AI di usu generale per ghjunghje à Nvidia, chì detene a maiò parte di u mercatu mundiale in IA iperscala, hè cunvintu chì "a dumanda di chip in u campu di l'IA esploderà in u futuru".
À misura chì i servizii d'IA diventanu più cumplessi, si trovanu inevitabilmente di fronte à un aumentu di i costi d'infrastruttura. L'attuali prudutti GPU A100 è H100 di Nvidia anu l'alte prestazioni è a putenza di calculu necessarie per u calculu di l'intelligenza artificiale, ma per via di l'aumentu di i costi tutali, cum'è l'altu cunsumu energeticu è i costi di implementazione, ancu l'imprese à grande scala sò diffidenti à passà à i prudutti di prossima generazione. U rapportu costu-beneficiu hà spressu preoccupazione.
À questu riguardu, Baek hà previstu a direzzione di u sviluppu tecnologicu, dicendu chì, in più di u crescente numeru di cumpagnie chì aduttanu suluzioni d'intelligenza artificiale, a dumanda di u mercatu serà di massimizà l'efficienza è e prestazioni in un sistema specificu, cum'è u "risparmiu energeticu".
Inoltre, hà messu in risaltu chì u puntu di diffusione di u sviluppu di semiconduttori di intelligenza artificiale in Cina hè "usabilità", è hà dettu chì cumu risolve u supportu di l'ambiente di sviluppu è a "programmabilità" serà a chjave.
Nvidia hà custruitu CUDA per mette in mostra u so ecosistema di supportu, è assicurà chì a cumunità di sviluppu supporti quadri rappresentativi per l'apprendimentu prufondu cum'è TensorFlow è Pytoch hè diventata una strategia di sopravvivenza impurtante per a pruduzzione.
Data di publicazione: 29 di maghju di u 2023





