Skupno se z uporabo umetne inteligence v različnih industrijah ukvarja že več kot 15 let. Zadnjih pet let je največ pozornosti posvečal premagovanju ovir za uporabo generativnih modelov v podjetjih. Je dober poznavalec trendov na področju umetne inteligence in se ne izmika drznim napovedim sprememb, ki jih ta tehnologija prinaša.

Najin pogovor je bil sprva načrtovan za letošnjo Microsoftovo NT-konferenco, kjer je nastopil kot predavatelj, a so vmes posegle sezonske bolezni. Še dobro. Sestati se nama je naposled uspelo po podelitvi Nobelove nagrade za fiziko, ki je zelo presenetljivo šla v roke Johna Hopfielda in Geoffreyja Hintona za prispevek k razvoju strojnega učenja in ne za fiziko. Umetna inteligenca je bila tudi močno zaslužna za letošnjo Nobelovo nagrado za kemijo. V noči pred pogovorom je imel svojo predstavitev avtonomnih taksijev in humanoidnih potrošniških večnamenskih robotov tudi Elon Musk. Predstavitev je vzbujala navdušenje in deloma tudi nelagodje. Zlasti prihod Muskovih robotov optimus je spominjal na prizore iz znanstvenofantastičnih zgodb izpod peresa Isaaca Asimova in podobnih avtorjev. Robotska revolucija se je zdela pred vrati. Pozneje se je izkazalo, da so optimuse na prireditvi na daljavo upravljali ljudje in da ni šlo za utelešeno umetno inteligenco. Elon Musk pač. To je človek, ki je pred leti na oder povabil robota, ki je bil v resnici človek v robotski obleki.

Mešanje tega, kaj je mogoče in kaj ni, odgovorni in smotrni uporabi umetne inteligence ne koristi. Po eni strani ljudje od nje pričakujejo preveč, ji pripisujejo skoraj mitične sposobnosti in nezmotljivost, potem pa so razočarani in šokirani, ko naletijo na njene omejitve. Mnogi se jo tudi bojijo in bi jo podvrgli najstrožjemu nadzoru. Morda tudi prepovedali. S tem bi človeštvu odrekli tudi celo vrsto realnih koristi, ki jo pravilna uporaba umetne inteligence ponuja zasebnemu posamezniku, delavcu in podjetjem. Ključno pa je, da jo uporabljamo pravilno. Boris Cergol je med najinim pogovorom, ki se je dotaknil načinov učenja umetne inteligence, vplivov na avtorske pravice in izobraževanje, opozoril tudi na nekaj najpogostejših napak, ki jih počnemo z umetno inteligenco. Pojasnil je, da moramo v interakciji z njo povsem spremeniti predstavo o tem, kaj je računalnik in kako deluje, »razmišlja« oziroma kako pride do rezultatov. Ko to razumemo, veliko lažje tudi napovemo, kdaj gre umetni inteligenci zaupati in kdaj jo moramo obravnavati s skepso.

Nobelova nagrada za fiziko letos ni bila podeljena za fiziko, ampak v bistvu za računalništvo. Kako pomemben je bil prispevek Hopfielda in Hintona k razvoju sodobne umetne inteligence?

Ta prispevek je del večjih naporov. Sta pa Hopfield in Hinton ohranjala ogenj nevronskih mrež pri življenju tudi v času, ko te niso bile tako popularne. Podelitev Nobelove nagrade za fiziko lahko razumemo kot znamenje, da postaja umetna inteligenca orodje, ki ga uporabljajo različne discipline in tudi v znanosti. Je pa odločitev vseeno malo presenetljiva. Podelitve Nobelovih nagrad to tudi pogosto so.

Zanimivo je, da je od njunih odkritij minilo že 40 let. Zakaj je trajalo tako dolgo, da smo prišli do tega, kar imamo danes na področju umetne inteligence?

Veliko osnovnih gradnikov nevronskih mrež je bilo res razvitih že davno. Tako davno, da so v vmesnem obdobju ljudje obupali nad njimi. Obravnavalo se jih je kot neko staro stvar, iz katere ne bo nikoli nič. Razlog, zakaj je zadeva nato eksplodirala, je bolj ali manj samo računska moč. Morda na začetku tudi dostopnost do podatkovnih virov. Da so torej obstajala določena podjetja, ki so imela dovolj podatkov, da so lahko sploh začela trenirati te algoritme. Vendar splošna javnost prve faze globokega učenja od leta 2005 do 2016 ni zaznala. Prvi preskok, ki se je zgodil, je bil na račun generativne umetne inteligence, ki je sicer tudi že obstajala dolgo časa, a je prišla v zavest ljudi s chatGPT. Pri generativni umetni inteligenci je poleg teh velikih količin računske moči pomemben tudi trik, kako so se lahko ti modeli nekaj smiselnega naučili, ne da bi mi morali te podatke označiti.

Brez interneta bi podjetja verjetno zelo težko prišla do teh velikih baz podatkov.

Seveda. Internet je služil kot mehanizem, prek katerega so se ti podatki nabrali. Ti modeli so v bistvu zrasli iz teh podatkov. Niso bili natrenirani za neki specifičen namen. Ta je bil osnoven: samo napoveduj, kako se to besedilo nadaljuje. To je z moje perspektive dela zelo zanimivo. Da imamo neki stroj, ki se je naučil neke stvari, ne da bi mu mi izrecno povedali, kaj naj se nauči. Je samo opazoval podatke in pridobil to znanje.

Kakšen pa mora biti kriterij pri izboru gradiva, da se lahko uči? Verjetno mora biti gradivo res visoke kakovosti.

Včasih je bilo res tako. Za prejšnje metode je bila glavna stvar, da imaš res kakovostne, skrbno izbrane, prečiščene podatke za neki določen primer uporabe, na katerih se uči. Zdaj je ta kriterij popolnoma zmehčan. Modeli, kot sta bila GPT 2, GPT 3, so bili naučeni na množici vseh tekstovnih podatkov na internetu. Brez kakšnega posebno strogega filtriranja. Tudi modeli, ki se danes uporabljajo, še vedno vključujejo množico teh raznolikih podatkov. Če namreč želimo, da ti modeli dosežejo neko stopnjo splošnosti, je pomembno, da vidijo to raznolikost. Če bi preveč skrbno izbirali podatke iz samo določenih domen ali pa določene kakovosti, bi v bistvu zmanjševali njihovo splošnost.

Nihče nam ne jamči, da so rezultati iskanja na googlu točni. Google samo servira vire.

Ali to ne privede do težav z razvrščanjem relevantnosti vhodnih podatkov. Slaven je primer Microsoftovega bota, ki so ga spustili na twitter in se je hitro naučil spletnih nečednosti.

Ta primer je prišel v splošno zavest. Je pa bil ta bot narejen s popolnoma drugačnimi metodami, kot so v uporabi danes. Zato nima več tehnične relevance. Danes se lahko zgodijo druge vrste incidentov. Ni pa dejansko več tako pomembno, kako mu dajemo te začetne podatke. Navsezadnje je ta količina podatkov res ogromna. Če je vmes kakšen podatek, ki ni v redu, v tej ogromni množici ne bo naredil velike razlike.

Pri teh vnaprej naučenih modelih je nasploh dobro ločiti, da sicer imajo z začetnim učenjem pridobljeno znanje, s stališča praktične uporabe pa jih je bolje uporabljati na drugačen način. Bolje jih je uporabljati tako, da vzamemo neko lastno znanje oziroma podatke, z njimi seznanimo model in ga nato uporabimo, da to naše znanje transformira v nekaj drugega, kar je za nas koristno.

Tako je v idealnem primeru. Pri chatGPT in Googlovem geminiju sem doživel, da sta moje vhodne podatke nekoliko priredila. Kaj dodala ali kaj spremenila. Potem so tu težave s »halucinacijami«. Zakaj prihaja do njih?

Vsi ti sistemi so stohastični (uporabljajo verjetnostne metode, op. a.). To, kar se modeli naučijo na začetku, je primerljivo z dolgoročnim spominom pri ljudeh. Tudi pri človeku dolgoročni spomin ni stoodstotno zanesljiv. Res si ljudje zapomnijo stvari, a v primeru, ko se česa ne spomnijo, znajo improvizirati. Ugibati. Sistemi umetne inteligence so zelo dobri v tem ugibanju. Če uporabimo to na pravi način, je to na hecen način njihova kreativnost. Ravno zaradi te sposobnosti ugibanja jih lahko včasih apliciramo na kakšne probleme, ki so popolnoma drugačni od tega, kar so se naučili, ampak vseeno uporabijo to svoje latentno znanje, da poskušajo uganiti oziroma halucinirati, kako bi bilo v tem primeru, ki ga je uporabnik opisal.

Zato zaradi halucinacij nisem zaskrbljen, ker je vseeno veliko mehanizmov za njihovo omejevanje, da pridemo do točke, ko so ti modeli zelo uporabni. Je pa pomembno, da skozi uporabo modelov in izkušenj z njimi enako kot pri ljudeh ugotovimo, kdaj jim lahko bolj in kdaj manj zaupamo. Tukaj morda pridemo do točke, ki včasih povzroča zaskrbljenost. To je zelo drugačna izkušnja, kot so jo imeli ljudje z računalniki v preteklosti. Računalnike smo pogosto razumeli kot nekaj, kar je statično oziroma vedno ponuja enak odgovor, ki je matematično utemeljen. Zdaj pa smo na terenu, ko računalnik pravzaprav ugiba. Dobro ugiba. Mi pa se moramo priučiti skozi lastno izkušnjo, kdaj gre zaupati tem ugibanjem in kdaj moramo biti skeptični.

To je ironija teh modelov. Da jih je varno spraševati zlasti o stvareh, za katere si že strokovnjak. Ker lahko vedno nekaj na zelo prepričljiv način »uganejo« narobe.

S svoje perspektive lahko rečem, da so določeni produkti, ki temeljijo na teh modelih, zame efektivno nadomestili to, za kar sem včasih uporabljal google.

Nedvomno.

Google zdaj večinoma uporabljam bolj iz lenobe, ko nimam neke strani shranjene med priljubljenimi in me google nato usmeri tja. To je res banalna uporaba. V bistvu je zanimivo, da so odgovori, ki jih modeli vseeno dajejo, marsikdaj tako dobri, da so primerljivi s tem, kar bi nam povedal neki strokovnjak. Recimo, da nimam nobenega pravnega znanja in sem soočen z dvema alternativama. Lahko vprašam človeškega pravnika za nasvet ali pa vprašam model. Uporaba modela je za uporabnika praktično brezplačna. Strokovnjak pa je lahko za nekoga precej drag. Seveda je vprašanje, kako dober je res odgovor modela.

Ampak to je res dokaj ključno vprašanje. Pred časom sem umetno inteligenco spraševal, kdo je v neki državi pristojen za izdajo vozniških dovoljenj. Odgovorila je narobe. So primeri, ko je napačno navedla datum začetka prodaje vstopnic za neki glasbeni festival. Primerov pomembnih napak je veliko.

To je eden glavnih razlogov, zakaj imajo ljudje danes težave s temi modeli. To so tipični primeri informacij, ki jih v resnici ne bi hotel dobiti neposredno od modela. Ko je ta model enkrat naučen, je izoliran.

28.10.2024 - Boris Cergol je odličen poznavalec trendov na področju umetne inteligence.FOTO: LUKA CJUHA

»Računalnike smo pogosto razumeli kot nekaj, kar je statično oziroma vedno ponuja enak odgovor, ki je matematično utemeljen. Zdaj pa smo na terenu, ko računalnik pravzaprav ugiba. Dobro ugiba.« Fotografija: Luka Cjuha

Imel je dostop do spletnih strani.

Tudi pri tem dostopu je zanimivo, da uporabniku ni popolnoma jasno, ali je za določen odgovor model dejansko priklical neko spletno stran. Pri perplexityju je to dosti jasno, ker oni pač vse vlečejo s strani. Druga stvar pa je tudi, da je lahko upošteval napačno stran. Če se je vmes denimo zamenjal datum, model pa je našel malo starejšo stran, na kateri je bil naveden zdaj zastareli datum. Gre za podobne probleme, na katere lahko naletimo na googlu. Nihče nam ne jamči, da so rezultati iskanja na googlu točni. Google samo servira vire.

Potem so tu še določeni stranski učinki varovalk. Pred kratkim sem dal chatGPT in geminiju lektorirati isto besedilo o Putinu. Gemini me je že prej nekaj opozarjal o političnosti, potem pa navedel, da v tekstu ni pravopisnih napak. ChatGPT se zaradi politične vsebine teksta ni pritožil in je pravopisne napake potem tudi našel.

To je trenutno stvar, ki me najbolj skrbi. Na te modele gledam kot na orodja. Dajmo si predstavljati podobne scenarije na drugih orodjih. Recimo, da sem politični disident leta 1985 in hočem napisati članek za neki bilten s protirežimsko noto, pisalni stroj pa mi zablokira. Bili bi zgroženi, ampak pri teh modelih smo zdaj to privzeli kot nekaj povsem normalnega. Obstaja tudi cela vrsta testiranj, kaj so zdaj politično občutljive teme. Modeli definitivno vase vkomponirajo do neke mere ideološka prepričanja. Nekaj je kontroverzno, nekaj drugega ni. Potem se lahko vsi vprašamo, po kakšni presoji. Smo pa prišli tako daleč, da ljudje že opozarjajo, tudi direktor ChatGPT Sam Altman, da to ne more biti prihodnost. Treba bo vključiti mehanizme, ki bodo uporabniku dali večjo svobodo. Da se uporabnik odloči, kaj je zanj politično kontroverzna tema. Za zdaj je ostalo le pri besedah. Modeli so, kakršni so. Z vsemi svojimi političnimi pristranskostmi.

Veliko je tudi skrbi zaradi ponarejenih fotografij. Policija in zavarovalnice imajo že nekaj časa mehanizme, ki takšne zlorabe preprečujejo. Ampak za širjenje lažnih informacij med ljudmi so ponarejene fotografije in posnetki močno orodje.

Se strinjam, da moramo biti danes bolj pazljivi kot kadar koli prej. Se pa sprašujem, ali je res umetna inteligenca gonilo dezinformacij ali se dezinformacije še vedno popolnoma tradicionalno ustvarja prek političnih vplivnežev?

Že res, bi pa vzporednico tu vlekel z izjemno rastjo napadov izsiljevalskih virusov v zadnjih letih. Res so zanje krivi zlonamerni ljudje, je pa pojav industrije hekerskih orodij za najem močno povečal bazen ljudi, ki takšne napade lahko izvedejo. Problem je v obsegu. Že sam obseg lahko povzroča težave.

Umetno inteligenco vidim kot univerzalno orodje, ki se ga lahko aplicira na najrazličnejše načine in za najrazličnejše namene. Skrbi pa me, da bomo uvedli takšna pravila, ki bodo uporabo tega orodja omejila dobronamernim ljudem, ki se držijo družbenih pravil, medtem ko se bodo slabonamerni požvižgali na pravila. Podobno kot bi samo kriminalcem omogočili posest orožja.

Vrniva se k učenju. Večina teh modelov učenja ni začela niti z osnovnim znanjem logike, simbolnega jezika in matematike. Upalo se je, da se bodo tega sproti naučili iz učnega gradiva. Nekateri opozarjajo, da je to eden od razlogov za slabe odgovore. Da modeli preprosto ne razumejo, kaj pomeni dobra informacija za človeka, temveč servirajo dobro informacijo za model. To pa je nekaj, kar zgolj zgleda »dovolj dobro«.

To vprašanje ima dva dela. Kar zadeva logično sklepanje, smo pred kratkim z novo generacijo modelov OpenAI 01 videli precej dobre sposobnosti logičnega sklepanja. Sočasno so modeli postali tudi nasploh dobri v pisanju kode. To pomeni, da tudi če bi jim manjkala sposobnost simbolnega računanja, napišejo kodo, ki se potem izvede na stroju, ki je sposoben simbolnega računanja. Tako gremo mimo te ovire. Mislim, da smo na tem področju že zelo daleč. Imam celo občutek, da je veliko glasnih kritikov, ki so opozarjali na težave z logičnim sklepanjem, potihnilo.

Drugi del vprašanja pa zadeva – morda malo smešen izraz – empatijo do uporabnika. Gre za vprašanje, kako dobro model razume, kaj v resnici želimo. Če hoče model to dobro vedeti, bi moral načeloma veliko vedeti o nas. Pri večini končnih produktov za uporabnike pa model v bistvu ve zelo malo o uporabniku. Včasih dobesedno nič. Model smo odprli v nekem oknu, o nas ne ve nič, mi pa ga zdaj nekaj sprašujemo. Mislim, da je tukaj skoraj edina rešitev, da damo modelu več konteksta o tem, kdo je uporabnik in kaj ga zanima. Nekateri bodo zelo proti. Po drugi strani pa si bo marsikdo, sploh če bo lahko te podatke hranil lokalno, s tem lahko zelo pomagal.

Veliko ljudi dela v podjetjih, kjer morajo poročati, koliko časa porabijo za to, da se nekaj naredi. Če bi slike z zaslona takšne osebe ves čas hodile v neki centrali zbirnik in bi umetna inteligenca sama ugotovila, koliko časa je za to nalogo nekdo porabil, podatek pa poslala šefu, to ljudem ne bi bilo všeč. Če bi pa ta sistem pri takem zaposlenem tekel lokalno na računalniku in bi mu konec tedna izpisal poročilo, zaposleni pa bi se lahko nato odločil, kaj bo s tem podatkom naredil – ali ga bo prilagodil ali neposredno poslal naprej – pa bi bilo marsikomu zelo všeč. Ključno je torej vprašanje, kakšna je varnost oziroma lastništvo podatkov.

Trenutno je tako, da se modeli marsikdaj obnašajo, kot da bi bili kakšni pripravniki v podjetju. Zato se mi zdi, da se podjetja, ki bi najraje prepovedala vso umetno inteligenco, obnašajo tako, kot bi sklenila, da ne bodo nikoli več zaposlovala pripravnikov.

Kakšno pa je lastništvo podatkov, ki jih navajamo v odprtih modelih?

Če za neko stvar ne plačuješ, si v bistvu ti produkt. To smo videli že ničkolikokrat na internetu.

Kaj pa če plačuješ za chatGPT ali gemini in podobne modele?

Ne v vseh, ampak v veliko primerih je pri plačljivih računih samodejno izključena kakršna koli uporaba teh podatkov ali pa je uporabnikom dana možnost, da to izključijo. Podatki, ki jih ljudje vnašajo prek svoje interakcije, so imeli mogoče pred nekaj leti ogromno vrednost. Podjetja, ki so lahko hitro prišla do množice teh podatkov, so si lahko z njimi zelo pomagala. Mislim, da to velja za OpenAI. Danes pa mislim, da je vrednost podatkov običajnih interakcij in običajnih vprašanj skoraj nič za treniranje modelov. Z manjšanjem vrednosti podatkov je tudi motivacija na strani korporacij, da bi z njimi kaj počele, manjša.

Poslovnih skrivnosti vseeno ni dobro deliti s temi sistemi.

Absolutno ne. Ampak na neki točki se moraš v podjetjih malo zanesti na to, da imajo tvoji zaposleni zdravo pamet in da so odgovorni.

Ali so res? Ali ne bi bilo treba zaposlenih izobraziti, kako uporabljati ta orodja? Za nameček pogosto odgovorni v podjetjih o teh orodjih vedo še manj kot zaposleni.

Vsekakor bi se jih moralo izobraževati. Podjetja pogosto na te tehnologije reagirajo s strahom in z željo po nadzoru, namesto da bi iskala priložnost za izboljšavo procesov. Po možnosti vpeljejo neki pravilnik o varni uporabi umetne inteligence, ki prepove praktično vse. Hkrati uporabnikom ponudijo možnost za uporabo umetne inteligence v podjetju, ki pa je pogosto inferiorna temu, kar bi kot fizična oseba lahko delali na internetu.

Po drugi strani je težava tudi, da v podjetjih obstajajo superuporabniki, ki umetno inteligenco uporabljajo na zelo kreativne načine in dosegajo visoke stopnje avtomatizacije, pa nihče v podjetju za to ne ve. Interesa ni niti na strani uporabnika niti na strani podjetja. Tako se potem ustvarja neki čuden status quo.

Marsikdo zdaj govori, da ta val generativne umetne inteligence za zdaj ni toliko vrednosti prinesel podjetjem, kot jo je prinesel posameznikom, ki so bili zgodnji uporabniki te tehnologije. Ampak to ni problem same tehnologije, to je striktno problem pristopa večine podjetij k uvajanju tega.

Je v Sloveniji odprtost do umetne inteligence velika ali ne?

V prejšnji službi sem imel priložnost delati v izrazito mednarodnem okolju in bi celo rekel, da je v slovenskih podjetjih pravzaprav več odprtosti in interesa za uporabo tega. Vsaj glede na moj vzorec. Je pa ogromna variabilnost. Imamo podjetja, ki so izredno proaktivna, ki zelo poskušajo iskati nove in nove načine, kako bi lahko več naredili s to tehnologijo, in tista, ki gredo po popolnoma drugi poti. So prepričana, da je to popolnoma neuporabno, da je to treba prepovedati in da to dela same težave. Res je zelo bipolarno.

Meni se kot najbolj koristen pogled na umetno inteligenco zdi, da se poskusi zaposlenim dati na razpolago kvalitetna orodja in da se jim ponudi neko izobraževanje. Ampak, da se na koncu tudi zaposlenim zaupa, da so odgovorni ljudje, ki ne želijo škodovati podjetju. Trenutno je tako, da se modeli marsikdaj obnašajo, kot da bi bili kakšni pripravniki v podjetju. Zato se mi zdi, da se podjetja, ki bi najraje prepovedala vso umetno inteligenco, obnašajo tako, kot bi sklenila, da ne bodo nikoli več zaposlovala pripravnikov. V večini podjetij pripravniki so. So pa seveda pod nadzorom in mentorstvom zaposlenih, ki jim podjetje zaupa, da se znajo dobro odločati.

Iz šolstva medtem slišimo pritožbe, da učenci, dijaki in študenti uporabljajo ta orodja pri seminarskih nalogah. Pri tem je prispevke modelov pogosto enostavno opaziti, ker imajo dokaj specifičen slog. Podobno kot poznavalec danes zelo hitro opazi, katera umetna inteligenca je ustvarila neko sliko. Četudi naročiš modelu, naj nekaj naredi v nekem specifičnem slogu, v tem še vedno pusti nekaj svojega sloga.

To je dejstvo. Lahko pa naredimo marsikaj, da to ublažimo. Če nekdo v to usmeri malo več pozornosti, bo našel načine, da lahko te slike precej prilagodi. Jaz sem tudi zgrožen, ko hodim po konferencah, pa potem vidim predavatelje, ki kažejo slike, in res vidim, da jim je to vzelo pet sekund časa, da so jih zgenerirali.

Mnogi denimo ne vedo, da lahko midjourneyju damo obstoječo sliko in mu naročimo, naj pripravi natančen opis njenega sloga. Ko hočemo zgenerirati naslednjo sliko, bomo najprej vključili cel esej o slogu prejšnje in šele nato napisali, kaj v resnici zdaj želimo. Tako dobimo precej drugačne slike.

Kar se tiče seminarskih nalog, pa mislim, da je čas za neko spremembo. Preprosto smo prišli do točke, ko lahko neke stvari s tehnologijo naredimo hitreje. Zato moramo prilagoditi pričakovanja do študentov na fakultetah. Če imajo zdaj na voljo veliko bolj mogočna orodja, je edino smiselno, da od njih tudi več pričakujemo. Moramo jih izzvati. Namen študijskega sistema je ravno to, da se posameznika izzove, da postane boljši.

Spet je ironija, da so seminarske naloge na univerzitetni ravni z uporabo umetne inteligence pogosto slabše. Najbolj se jih opazi, ko študent preprosto naroči modelu, naj mu napiše seminarsko nalogo na neko temo.

Zakaj pa sploh dajemo ljudem naloge, ki jih lahko izpolnijo s tem, da napišejo en stavek v chatGPT?

V moji izkušnji študija filozofije je bilo pisanje seminarskih nalog kar ključnega pomena. Podobno kot chatGPT se tudi človek ne rodi z izpiljenim znanjem logike, simboličnega jezika in strukturiranega mišljenja. To se je težje naučiti z govorom kot s pisanjem, ker pisanje ustvarja neko sled oziroma ponuja lažjo preverljivost, če je kaj kje šlo narobe v logični konsistentnosti misli. Pri filozofskem tekstu imajo stvari tudi jasne definicije, ki se jih je treba držati skozi cel argument. V govoru včasih malo kaj pogoljufamo in potem v argument na skrivaj vrinemo kaj novega.

Vidim. Podobno kot koda. Bo pa verjetno res kar izziv v visokošolskem študiju. Še zlasti za trenutno generacijo. Že vidim zelo jasne znake tega. Tudi v podjetjih se veliko nalog, ki so se nekoč zaupale pripravnikom, zdaj zaupa umetni inteligenci. Sčasoma pa se bo to preneslo tudi na višja delovna mesta. Bo pa zaradi tega komu težko najti prvo delovno mesto. Vrata se bodo mogoče malo težje odprla.

Trenutno je pereče tudi vprašanje avtorskih pravic. Kot prvo bi se dotaknil vprašanja, kako umetna inteligenca naredi neko fotografijo ali zvočni posnetek. Pogosta je napačna predstava, da gre za nekakšne kolaže zbranih podatkov.

To je starejše od generativne umetne inteligence. To je še stvar globokega učenja. Bistvo slednjega je, da se model nauči nekih koristnih reprezentacij na podlagi velikih količin učnega gradiva. To velja še danes. Ko model sliši veliko skladb, bo dobil neko precej dobro predstavo, kaj pomeni pojem rock glasba. To ne pomeni, da bo imel nekje v neki svoji bazi dejansko neko specifično melodijo. Se pa lahko zgodi, da je neka posamezna skladba pustila tako močan pečat, da je pomembno zastopana v tej reprezentaciji. Ampak to je koncept, ki je zelo podoben temu, kako tudi ljudje ustvarjajo glasbo.

Vsekakor ne gre za kolažiranje, bomo pa imeli hude pravne bitke na področju intelektualne lastnine. Če smo našli način, kako določene vrste intelektualne lastnine lahko naredimo z lahkoto, menim, da je to tudi dobro izhodišče za pogovor o tem, ali moramo na tem področju urediti tudi zakonodajo. Treba je torej razmisliti, ali si takšna vrsta dela še vedno zasluži posebno zaščito.

Prilagoditi moramo pričakovanja do študentov na fakultetah. Če imajo zdaj na voljo veliko bolj mogočna orodja, je edino smiselno, da od njih tudi več pričakujemo. Moramo jih izzvati.

Za konec se dotakniva še splošne umetne inteligence. Je ta blizu ali nam lahko srednjeročno bolje služijo manjši in bolj optimizirani modeli, ki lahko delujejo povsem lokalno? Denimo na telefonu.

Če bi lahko šel dvajset let v preteklost in ljudem pokazal, kaj se da narediti z današnjo umetno inteligenco, bi večina rekla, da je to splošna umetna inteligenca. Izjema bi bila peščica najbolj ortodoksnih ljudi. To, kar imamo danes, bi se jim zdelo kot nekaj, kar smo brali v znanstvenofantastičnih knjigah. Danes se nam to ne zdi tako, ker ljudje res obvladamo premikanje mejnikov. Tudi sicer pa se mi zdi, da smo že zelo blizu, da bomo zadostili vsem mejnikom.

O lokalnih modelih, ki so izrazito specializirani, pa menim, da nimajo velikega potenciala. Drugo so specializirani produkti. Lahko vzamemo model in ga prilagodimo nekemu načinu uporabe. Menim, da se s časom ne bomo več pogovarjali o modelu, ampak bomo rekli, da je to neki sistem, znotraj tega sistema pa se naloge pametno razporejajo. Podobno kot pri ljudeh. Zapletenejšo nalogo damo nekomu, ki ima več izkušenj. Če je nekaj rutinskega, jo bomo zaupali nekomu, ki jih ima manj. Podobno bo pri umetni inteligenci. Že zato, da bomo prihranili denar s pametnim razporejanjem nalog glede na potrebe.

To je res zanimivo. Umetna inteligenca je ena prvih tehnologij, ki je v uporabo prišla kot tehnologija, nimamo pa še izdelka. Tega moramo z uporabo šele narediti.

Se popolnoma strinjam. Če gledamo, kje so priložnosti, kaj lahko posamezniki ali pa podjetja delajo, da bi ustvarili presenetljivo veliko dodane vrednosti, je to prav ta produktni fokus. Ta je zdaj bolj pomemben kot kadar koli doslej. Trenutno je z vsemi temi novimi orodji mogoče narediti tako veliko stvari, na trgu pa dejanskih produktov spet ni tako veliko. Za ljudi, ki so dobri pri snovanju dobrih produktov, bo umetna inteligenca res predstavljala veliko priložnost.

Priporočamo