Ravno tehnologija je odličen pokazatelj, da ne zmoremo dobro premisliti posledic vseh aplikacij, pa tudi da zelo nekritično razmišljamo o tehnoloških produktih. Dober primer so klepetalniki, pri katerih so si razvijalci prizadevali samo za to, da so še bolj personificirani, še bolj človeški. Nihče pa se ni vprašal, kam to vodi. Kaj bo naslednji korak? Ali v družbi res želimo strojne posnemovalce človeka? ...

O določenih težavah, ki jih ima UI, se že zelo glasno govori, denimo o pristranskosti, diskriminatornosti, širjenju dezinformacij. Zelo malo pa se razpravlja o virtualnih »bitjih«, ki jih promovirajo in uporabljajo kot psihoterapevte ali pa preprosto kot nadomestke za prijateljske ali ljubezenske odnose. Tu bi lahko nastal velik problem, a tehnologija ostaja brez nadzora in temeljitih raziskav.

Sama poskušam predvsem spremeniti to, da se o etičnih vprašanjih ne pogovarjamo šele na koncu in iščemo obliž za rano, ampak da se ta vprašanja upošteva in raziskuje že od začetka, hkrati z grajenjem samega izdelka in vizije razvoja UI.

Razvoj na tem področju je zelo hiter, zato je pomembno, da smo humanisti prisotni v tehnoloških podjetjih. To se že kaže v regulaciji, na trgu je že tako veliko produktov, podprtih z UI, ki so si med seboj tako različni, da ni mogoče vse urediti le z enim zakonom. Tu so med državami velike razlike: v ZDA to področje ni zelo regulirano, v Evropi se je to dokaj uredilo z aktom o UI, na Kitajskem je regulacija še strožja. Pristopi razvoja UI so različni, problem se bo pojavil predvsem za manjše države, ki morajo uporabljati modele, zgrajene v večjih državah z drugačno kulturo. Model, učen na določenem jezikovnem naboru, seveda nosi s seboj kulturno prtljago in drugačne vrednote. Tako da bo pomembno paziti pri prevodih in implementaciji takšnih modelov v družbo.  Delo

Priporočamo