Il costo della creazione di un prodotto di intelligenza artificiale come ChatGPT può essere difficile da misurare.
Ma una cosa di cui OpenAI, sostenuta da Microsoft, aveva bisogno per la sua tecnologia era molta acqua, estratta dallo spartiacque dei fiumi Raccoon e Des Moines nell’Iowa centrale per raffreddare un potente supercomputer mentre aiutava a insegnare ai suoi sistemi di intelligenza artificiale come imitare la scrittura umana.
@maxwell Sta diventando un bel problema. Urge il momento di spostarsi su architetture ancora più efficienti e performanti.
O di smetterla di giocherellare.
@biofaust Dipende da cosa intendi per giocherellare.
Siamo al limite fisico dei computer, non è possibile, purtroppo
@Novman Specifica meglio.
I circuiti di pochi nanometri soffrono di problemi quantistici non indifferenti, in pratica non sai dove si trova l’ elettrone. Inoltre un atomo è 0,qualcosa nanometri e quindi anche a volerlo non puoi rimpicciolire. Inoltre la velocità della luce è troppo lenta per percorrere l’intero chip con frequenze troppo elevate. Infine tutto questo produce un calore troppo elevato ( trippa compattazione e velocità) e si fa molta fatica ad alimentarlo e , soprattutto, a raffreddarlo. I computer quantistici possono aiutare alcune operazioni ( quelle svolte in parallelo ), ma il non parallelizzabile rimane cmq un problema.
Tieni conto che quando si dice “processo a 3nm” non è che il canale del transistore è davvero di quella dimensone, dai 20nm in giù le dimensioni sono sempre più o meno quelle (circa 20nm), i fattori più limitanti per ora sono quelli economici (fare fette con una percentuale di circuiti funzionanti soddisfacente).