Uporabnik omrežja X je pred nekaj dnevi objavil takšen pomislek: »Sprašujem se, koliko denarja OpenAI izgubi zaradi stroškov elektrike vsakič, ko se ChatGPT-ju nekdo zahvali ali ga pozdravi,« je zapisal.
Na njegov zapis se je odzval izvršni direktor podjetja OpenAI Sam Altman, ki je pojasnil, da za elektriko plačujejo več deset milijonov in da gre za smotrno porabljen denar.
Vljudnost z namenom
Vljudnost do umetne inteligence ima lahko tudi funkcionalni pomen. Microsoftov direktor oblikovanja Kurtis Beavers je v objavi na Microsoftovem blogu zapisal, da »uporaba vljudnega jezika določa ton odziva« umetne inteligence. Z drugimi besedami – če ste do UI vljudni, vam bo ta verjetno odgovorila enako vljudno.
Vendar ima vljudnost, kot rečeno, tudi svojo ceno. Po ocenah finančnih strokovnjakov iz Goldman Sachsa, ki ga povzemajo ameriški mediji, je za to, da ChatGPT-ju zastavimo vprašanje ali mu pošljemo komentar, potrebno desetkrat več elektrike kot pri običajnem iskanju v Googlu.
Raziskovalci spletne strani za finančno svetovanje BestBrokers so ugotovili, da ChatGPT vsako leto v povprečju porabi 1,059 milijarde kilovatnih ur električne energije. To pomeni, da bi samo za stroške energije klepetalnega robota letno porabili približno več kot sto milijonov.
Za hlajenje strežnikov gre tudi ogromno vode
Umetna inteligenca potrebuje tudi velike količine vode za hlajenje strežnikov, ki jo poganjajo. Raziskava Kalifornijske univerze v Riversidu je pokazala, da ChatGPT za ustvarjanje 100 besed dolgega elektronskega sporočila porabi liter in pol vode, za odgovor s tremi besedami pa približno 50 mililitrov vode.
OpenAI si sicer lahko privošči deset milijonov evrov stroškov za elektriko. Ocenjeno vrednost podjetja namreč ocenjujejo na 300 milijard, imeli pa naj bi okoli 800 milijonov tedenskih uporabnikov po vsem svetu.