Milan Gnjatović


HOME RESEARCH PUBLICATIONS STUDENTS MEDIA BIO CV CONTACT

Izveštačena filozofija

Milan Gnjatović
(Ovaj tekst je objavljen u magazinu Planeta br. 100, april-maj-jun 2021., pod nazivom „Etika mašine“.)

Koliko je visok stepen zavodljivosti metafora tzv. veštačke inteligencije vidi se i po tome što im podležu čak i oni koji bi trebalo da su u poslednjoj liniji intelektualne odbrane – filozofi.

Fizičar Stiven Hoking (Stephen Hawking) svojevremeno je izjavio da je filozofija mrtva, jer nije pratila naučni razvoj. Ispostavilo se da nije bio sasvim u pravu, što ne znači da stvari dobro stoje za filozofiju. Umesto da koriguje nauku – kao što su to decenijama radili Džon Serl (John Searle), Noam Čomski (Noam Chomsky) i dr. – savremena filozofija počela je da joj povlađuje. Kako to izgleda kad filozofija nekritički prihvati obećanja veštačke inteligencije može se videti u izveštaju Istraživačkog servisa Evropskog parlamenta, objavljenom u martu 2020., pod nazivom „Etika veštačke inteligencije: pitanja i izazovi“. Ovde ćemo razmotriti aspekt izveštaja koji se odnosi na izmenu zakonske regulative.

Pravna odgovornost robota?

Izveštaj počinje neformalnom definicijom po kojoj se pojam veštačke inteligencije odnosi na sisteme koji ispoljavaju inteligentno ponašanje analizirajući svoje okruženje i preduzimajući akcije – sa određenim stepenom samostalnosti – da bi ostvarili specifične ciljeve. Ovo je, u osnovi, korektno viđenje, oslobođeno nepotrebne mistifikacije tehnologije. Međutim, problem leži u specifičnom interpretiranju ove definicije.

U izveštaju je prihvaćena široko rasprostranjena i pogrešna praksa posmatranja pojma veštačke inteligencije u kontekstu partikularne metodologije. Kao kanonički primeri veštačke inteligencije uzeti su sistemi zasnovani na veštačkim neuralnim mrežama. Za njih je naglašeno da mogu samostalno da prilagode svoje ponašanje, u zavisnosti od niza interakcija koje obavljaju sa okolinom i korisnicima, na način koji tvorci sistema ne mogu da predvide. Ovo zapažanje je, u tehničkom smislu, tačno, mada sama funkcionalnost nije toliko napredna koliko se tvrdi. A nakon ukazivanja na notornu činjenicu da su sistemi veštačke inteligencije nepredvidljivi (što se, inače, neprikladno naziva „učenjem“), autori izveštaja izvode logički salto tvrdeći da onda nije jasno ko je odgovoran za postupke ovakvih sistema. Zbog toga, potrebno je prilagoditi zakonsku regulativu.

Evo šta su autori izveštaja savetovali članove Evropskog parlamenta po ovom pitanju. Najvažnije kratkoročno pitanje je „ko ili šta“ – baš tim rečima – podleže pravnoj odgovornosti:

„Kad bi se pokazalo da su roboti dovoljno svesni, mogli bi biti podložni odgovornosti kao direktni počinitelji kriminalnih dela, ili za krivična dela iz nehata. Ako priznamo da roboti imaju sopstveni um, obdaren slobodnom voljom, samostalnošću i smislom za moral poput ljudskih, onda bi naš ceo pravni sistem trebalo da bude drastično izmenjen.“

Da bi dali dodatni legitimitet izveštaju, autori se eksplicitno pozivaju na uticajne savremene filozofe. A oni predlažu sledeće.

Cinični odgovori

Mariarosaria Tadeo (Mariarosaria Taddeo) i Lučiano Floridi (Luciano Floridi), filozofi sa Oksfordskog instituta za Internet, predlažu uspostavljanje „moralnog okvira raspodeljene odgovornosti“. Drugim rečima, svi koji stupaju u interakciju sa sistemom na način koji može da dovede do promene ponašanja sistema snose odgovornost za njegovo ponašanje. Iako ne objašnjavaju detalje ovog modela, niti je jasno da li je njegova praktična primena moguća, autori neskromno ističu da on „ima centralnu ulogu u sprečavanju zla i negovanju dobra, jer navodi sve aktere na odgovorno ponašanje“. U dobronamernom razumevanju, predlog ovog „moralnog okvira“ bio bi nazvao naivnim, i objašnjem time da su ugledni filozofi prevideli ne tako davnu lekciju da u društvu maksimalne entropije u kom su svi odgovorni, u stvari odgovornost nije ničija. Međutim, jedan drugi filozofski predlog, takođe naveden u izveštaju, sugeriše ciničnije razumevanje.

Holandski filozofi Hert-Jan Lokhorst (Gert-Jan Lokhorst) i Jerun van den Hoven (Jeroen van den Hoven) obrazlažu svoje viđenje na primeru vojnih robota. Po njima, upotreba široko prihvaćenog izraza „roboti-ubice“ (engl. killer robots) za označavanje vojnih robota je „podmukli retorički potez, koji lako dovodi do lažne dileme“. Za ove filozofe „veštačko-inteligentni vojni roboti koji spasavaju živote poželjniji su od ljudi (ili bombi) koji ubijaju naslepo“. Da bi opravdali svoj stav, Lokhorst i Van den Hoven razmatraju mogućnost da roboti snose određeni nivo odgovornosti za svoje postupke. Oni odbacuju stanovište koje se čitaocu čini očiglednim – da roboti ne mogu da budu odgovorni, jer ne mogu biti ni kažnjeni. Po njima, ne treba isključiti pretpostavku da će jednog dana roboti imate namere i emocije, tj., moći će da pate, a posledično ćemo moći da ih kaznimo za njihova eventualna (ne)dela. A ako se i desi da razvoj veštačke inteligencije ne omogući robotima da pate, što bi isključilo mogućnost njihovog kažnjavanja, autori imaju odgovor. Slično kao što se ne kažnjavaju mentalno hendikepirane osobe, već im se pruža „tretman“, tako se i robotima može pružiti „tretman“ – popravićemo ih (poput kola – što je, takođe, primer koji su naveli).

U moru zamerki koje se mogu izneti u vezi s ovim „podmuklim“ filozofskim potezom, možda je najsmešnije pitanje da li Van den Hoven, profesor etike na prestižnom Tehničkom univerzitetu u Delftu, zaista misli da je cilj razvoja veštačke inteligencije da omogući robotima da pate. Zar zaista nisu mogli da smisle bolje opravdanje za uvođenje vojnih robota?

Šta s lošom filozofijom?

Filozofi nemaju obavezu da budu u pravu. Ali diskusija o vojnoj etici koja odgovornost premešta sa ljudi na robote i softverske artefakte, ne zaslužuje da se naziva filozofskom. Albert Ajnštajn (Albert Einstein) je u jednom od pisama upućenih Ervinu Šredingeru (Erwin Schrödinger) napisao da se pretpostavka stvarnosti ne može izbeći, ako je naučnik pošten. Šta onda da se radi s filozofima čija su stanovišta ušla u prolongirani konflikt sa stvarnošću? Nema, valjda, smisla optuživati robote za to.

Konačno, možda vas zanima kakva je budućnost veštačkih neuralnih mreža. One će podeliti sudbinu svih drugih metoda veštačke inteligencije preuzetih iz statistike i verovatnoće. Vremenom će izgubiti veo misterije, nestaće iz strateških izveštaja, i preseliće se isključivo na stranice udžbenika, gde će čekati da ih neko opet otkrije – pod drugim imenom, naravno. Onda će se možda povampiriti i poneki „filozof“.

gnjatovic.info