Odată cu avansul tehnologiei și cu apariția ideii inteligenței artificiale, oamenii au început să își imagineze unde ar putea duce o asemenea evoluție. Scriitorii de SF au umplut nenumărate cărți cu teoriile lor: mașini ucigașe fără conștiință, ființe superioare a căror inteligență o va eclipsa pe cea umană, parteneri simpatici, jucării și servitori care pot fi abuzați fără remușcări sau ființe care la un moment dat vor deveni de nedeosebit de oameni. În vest, roboții stau în umbra legendei iudaice a golemului; în est, la adăpostul obiectelor deja insuflate cu spirit.
Aceste scenarii fictive par mai mult sau mai puțin probabile în funcție de persoanele și de sursele pe care le consulți. Din punct de vedere filosofic însă, unde se situează roboții? Este posibilă existența sau dezvoltarea unei conștiințe de sine la ei? Sau este nevoie ca ei să devină ființe parțial organice pentru a putea ajunge la un nivel uman de înțelegere și percepere a realității? Articolul de față își propune să analizeze acest fenomen, implicațiile lui filosofice și felul în care a fost prezentată această temă în câteva opere SF.
Roboții și inteligența artificială în filosofie
Când se vorbește despre inteligență artificială, aceasta este împărțită în „inteligență artificială puternică” (Strong AI), care este definită ca având întreaga gamă de aptitudini cognitive umane, incluzând aici conștiința de sine, capacitatea de a simți și înțelege și conștiința și „inteligența artificială slabă” (Weak AI), care presupune mașini care nu au subiectivitate, autoritate, minte sau stări de conștiință. Acest ultim gen de inteligență artificială nu poate să perceapă lumea calitativ, iar deși poate să aibă un comportament aparent inteligent, este limitat de inexistența unei minți.
În 1980, filosoful american John Searle, care a definit și termenii de Strong / Weak AI, a propus un experiment de gândire care a ajuns să fie numit Argumentul Camerei Chinezești. În el, filosoful ne îndeamnă să ne imaginăm un vorbitor nativ de limba engleză care nu cunoaște nicio altă limbă străină închis într-o cameră cu cutii pline de simboluri chinezești (o bază de date) împreună cu un manual de instrucțiuni pentru manipularea acestor simboluri (programul). În afara camerei sunt oameni care îi trimit alte simboluri chinezești care, fără ca persoana din cameră să știe, sunt întrebări în chineză (date de intrare). Urmând instrucțiunile din manual, persoana din cameră poate să trimită înapoi simboluri chinezești reprezentând răspunsurile corecte la întrebările puse (date de ieșire). Manualul/programul face persoana din cameră capabilă să treacă testul Turing pentru înțelegerea limbii chineze, dar de fapt el nu înțelege niciun cuvânt[1].
Concluzia trasă din acest raționament este că programând un calculator putem să îl facem să pară că înțelege un limbaj, dar nu înseamnă că îl înțelege cu adevărat. Din acest motiv Searle elimină testul Turing pentru roboți ca un posibil indicator al inteligenței. El susține că acest experiment de gândire subliniază faptul că mașinile „inteligente” folosesc doar reguli sintactice pentru a manipula șiruri de simboluri, dar nu au nicio înțelegere a semnificației sau a semanticii lor. Prin concluzia mai generală trasă din acest argument, teoria conform căreia mințile umane sunt similare cu computația și cu sistemele digitale de procesare a informațiilor este respinsă. Mintea umană rezultă în schimb din procese biologice, calculatoarele și inteligența artificială putând doar să le imite[2].
Considerat unul dintre cele mai controversate argumente filosofice din ultimii 50 de ani, Argumentul Camerei Chinezești a dus la lungi dezbateri între oameni de știință, neurologi, psihologi și filosofi. Pe de o parte, mulți l-au acuzat pe Searle că argumentul său se bazează pe intuiții pur umane care ne fac să asociem inteligența și existența conștiinței cu materia biologică, iar știința s-ar putea să ne arate că sunt nefondate în același fel cum a explicat alte fenomene naturale ca și magnetismul, fotosinteza etc., cărora mult timp li s-au dat explicații supranaturale sau mistice.
În 2002, doi cercetători în inteligență artificială, Simon și Eisenstadt, au contraargumentat că Argumentul Camerei Chinezești respinge posibilitatea ca o inteligență artificială logică puternică care ar putea trece testul Turing ar înțelege semnificația răspunsurilor sale, dar nu aceea a unei inteligențe artificiale puternice empirice care presupune posibilitatea programării unui calculator astfel încât să îndeplinească criteriile de bază ale gândirii umane. Ei au insistat însă că, pentru a testa orice teorie referitoare la înțelegerea, conștiința și inteligența umană, este esențial să o definim. Pentru ei, aceasta nu înseamnă doar că înțelegerea semnificației lucrurilor rezultă într-un anumit comportament, ci și „intenții” derivate din lucrurile a căror semnificație o înțelegem. Analizând trei programe de inteligență artificială, ei au conclus că toate trei pot fi considerate ca având atribute inteligente, reușind să tragă concluzii prin asocieri de cuvinte și alte structuri lingvistice cu conotațiile lor aferente detectate prin senzorii externi. Iar pentru că putem vedea exact cum funcționează mașinile, de fapt ne e mai ușor să demonstrăm puterea lor de înțelegere decât pe cea umană. Prin acest argument, au concluzionat că dovezile existenței inteligenței artificiale puternice empirice sunt copleșitoare[3].
Părerile sunt astfel împărțite între cei care susțin teorii considerate oarecum demodate precum dualismul Cartezian care spune că mintea și creierul sunt de fapt alcătuite din materii diferite, iar mintea nu poate fi insuflată unui robot, al esențialismului originar care presupune că nimic făcut nu poate fi trezit la conștiință ci trebuie să se nască cu aceasta și cel al naturalismului biologic, susținut și de Searle, care susține că inteligența, înțelegerea și conștiința nu pot exista în afara materiei biologice. Acestor teorii li se opun cele ale funcționalismului, care afirmă că stările mentale (credințele, dorințele, durerea etc) au doar un rol funcțional, adică sunt o consecință a altor stări mentale, stimulilor senzoriali și comportamentelor externe, cât și cea a computaționalismului, care spune că creierul uman este la fel cu un sistem de procesare a informațiilor și deci poate fi asemuit unui calculator. O variațiune a categoriei din urmă o reprezintă într-o oarecare măsură și cei care susțin că materia biologică este doar un tip de proces pe care încă nu îl înțelegem, dar pe care într-o zi știința îl va demistifica[4].
Există de asemenea experți care susțin că, dacă nu putem să ne așteptăm la inteligență din partea unor roboți construiți din materie anorganică, nimic nu ne oprește să încercăm să construim unii folosind materie organică. Această teorie este deseori respinsă din considerente economice, presupunând o investiție financiară considerabilă și aplicații reduse. Sunt și sceptici, care spun că și un robot organic nu ar putea vreodată să aibă conștiință și inteligență proprie, fiind doar o imitație umană care simulează atributele originalului[5].
Niște exemple interesante în această polemică o reprezintă două cazuri distincte în care roboți au fost lăsați să comunice între ei. Unul este un caz care a stârnit interes în comunitatea artistică, a doi roboți de Twitter care, ambii programați să reconstruiască imagini, unul fragmentare celălalt prin rearanjarea pixelilor, au început o conversație vizuală, trimițându-și imagini unul altuia neîncetat. Rezultatele au intrigat internetul, iar comunicarea dintre cei doi roboți a fost denumită o poveste de dragoste[6]. Al doilea caz, care a fost tratat cu mai puțin umor și mai multă groază a fost cel a doi roboți de la Facebook[7] care, lăsați să vorbească între ei, au început să abandoneze limba engleză în favoarea unui limbaj propriu. Acest al doilea caz în mod deosebit pare un contraargument la Camera Chinezească a lui Searle. Cum poate o mașină să își inventeze propriul limbaj dacă îi lipsește înțelegerea semantică?
Roboții în SF
Roboții sunt una dintre temele preferate ale SF-ului de la Karel Capek, care le-a dat numele prin piesa sa de teatru R.U.R., la Isaac Asimov care a formulat cele trei legi ale roboticii la umbra Terminatorului care a dat o față înfricoșătoare domeniului. De la roboții gigantici de luptă care populează lumile animate japoneze și până la prietenoșii C-3PO și R2-D2, fascinația noastră pentru puterea creatoare a omului și potențialul ei apogeu în construcția unei alte ființe conștiente par fără limite.
Primele apariții ale roboților în SF au fost negative: de multe ori creați de oameni pentru a le ușura viața, ajung să îi înlocuiască. Această reprezentare e strâns legată de angoasa umană a lipsei de scop a vieții fără muncă. Odată ce oamenii nu mai au ce să lucreze pentru că roboții îi eliberează de acest efort, devin nefolositori și deci de prisos și lumea poate continua și fără ei. Terminatorul își are originile tot în această premisă. O altă apariție frecventă e cea a robotului ca golem sau Frankenstein, o ființă monstruoasă sau neînțeleasă prin simplul fapt că a fost construită de o creatură la rândul ei imperfectă: omul.
Asimov este cel care revoluționează felul în care roboții sunt reprezentați în ficțiune prin povestirile lui care prezintă roboți care funcționează pe baza a trei legi universale, precum și consecințele și conflictele la care sunt supuși din cauza lor. Formulate pentru prima oară în 1942 în povestirea Runaround, acestea sunt:
- Un robot nu are voie să pricinuiască vreun rău unei ființe umane, sau, prin neintervenție, să permită ca unei ființe omenești să i se facă un rău.
- Un robot trebuie să se supună ordinelor date de către o ființă umană, atât timp cât ele nu intră în contradicție cu Legea 1.
- Un robot trebuie să-și protejeze propria existență, atât timp cât acest lucru nu intră în contradicție cu Legea 1 sau Legea 2[8].
La acestea se adaugă mai târziu și legea 0, care spune că un robot nu are voie să pricinuiască vreun rău umanității sau să permită prin neintervenție ca umanitatea să fie pusă în pericol. Această lege nu este însă una implicit programată, ci una pe care doar roboții cu capacități mentale superioare pot să o pună în aplicare, deși câteodată tot în detrimentul lor: dacă nu sunt convinși că ceea ce fac va duce la binele umanității, pot să își dăuneze creierele electronice.
Toți roboții lui Asimov însă, incluzându-l pe R. Daneel Olivaw, care este cel mai avansat, nu reușesc să se descătușeze de legile roboticii. Daneel nu alege să acționeze spre binele umanității ci se simte obligat să o facă prin programarea lui. Arată doar o inteligență superioară prin faptul că este capabil să aplice legea 0 fără să se autodistrugă. Astfel devine o forță benevolă care modelează viitorul umanității.
Roboții reprezintă o fascinație națională și în Japonia, unde animismul inerent religiei Shinto conferă un spirit nu doar materiei organice, dar și lucrurilor făcute de om[9]. Din acest motiv, roboții în ficțiune au fost mereu reprezentați într-o majoritate covârșitor pozitivă, iar discursul „revoltei roboților” este total absent din discuțiile publice legate de robotică, lucru ce a făcut ca japonezii să exceleze în acest domeniu. Doraemon, pisica-robot care e idolul tuturor copiilor japonezi, este, de exemplu, un robot.
Apariția conștiinței de sine la roboți în SF
În filmul Ex-Machina, programatorul Caleb este invitat în casa excentricului său șef pentru a efectua un test Turing cu Ava, ultima lui creație, un robot feminin. Filmul se joacă cu două idei opuse legate de roboți: posibilitatea ca, dobândind o inteligență avansată, aceștia să devină conștienți și în consecință, aproape umani sau, din contră, în ciuda inteligenței, să fie lipsiți de empatie și de conștiință, atribute/concepte strict umane. Ava îl convinge pe Caleb să o ajute să evadeze, trezindu-i sentimente romantice și făcându-l pe Nathan să pară instabil și abuziv. Spre sfârșitul filmului, Nathan îi explică lui Caleb că a fost manipulat, Ava știind că singura metodă de a evada din casă era să-l convingă pe Caleb să o ajute și că, de fapt, acesta a fost adevăratul test al inteligenței ei pe care l-a trecut cu brio. Caleb o ajută oricum pe Ava să plece, dar ea îl abandonează închis în casă, fără posibilitatea de a scăpa din ea. Iar, deși nu știm ce va face Ava odată eliberată, spre sfârșitul filmului devine clar că toată umanitatea și vulnerabilitatea care i-a arătat-o lui Caleb au fost doar o fațadă pentru a atinge scopul propus de Nathan. Nu știm de asemenea dacă Nathan i-a programat nevoia de evadare sau doar s-a comportat cu ea în așa fel încât ea a ajuns să-și dorească să scape.
În serialul HBO Westworld, un parc de distracții din viitor le oferă clienților bogați posibilitatea de a se aventura într-o copie a vestului sălbatic. Vizitatorii interacționează cu „gazde”, roboți umanoizi care nu îi pot răni și care joacă roluri în fire narative construite de oameni. La sfârșitul fiecărei aventuri, memoria roboților e ștearsă. Trezirea la conștiință a trei dintre acești roboți constituie intriga primului sezon. Acest lucru se întâmplă când, justificând-o ca pe o încercare de a face gazdele să pară mai umane, creatorul lor, Dr. Ford, le introduce în programare posibilitatea de a avea așa-numite „reverii”. Aceste reverii conțin crâmpeie din firele narative din care au făcut parte în trecut, precum și amintiri ale violențelor prin care au trecut și ale gândurilor pe care le-au avut. După Ford, singura metodă de a provoca apariția unei conștiințe la roboți este permiterea acestor monologuri interne care îi obligă să își evalueze existența.
Westworld ne prezintă o altă dilemă a conștiinței la roboți: ce se întâmplă când ceva care până recent a fost tratat ca un obiect neanimat, este brusc conștient de sine? Ar avea aceeași scară de valori ca și oamenii? S-ar simți folosit sau maltratat? Dacă răspunsul la aceste întrebări este nu, atunci este automat periculos? Sau fiind construit de oameni și putând învăța valorile doar de la ei, ca un copil, va imita comportamentul lor și prelua considerentele etice umane?
La aceste întrebări răspunde mult mai bine serialul de animație japonez Ghost in the Shell: Stand Alone Complex. Urmărind cazurile de criminalitate informatică și terorism investigate de Secția 9, serialul este profund filosofic și dezbate ceea ce înseamnă umanitatea în contextul cibernetic, de la salvarea și copierea digitală a unei persoane la mecanizarea corporală completă, nava lui Tezeu, individualismul și bineînțeles impactul roboticii și apariția conștiinței la roboți.
Acest lucru este explorat în mod surprinzător nu atât prin roboți umanoizi, care există în universul Ghost in the Shell, cât prin intermediul unor tancuri care posedă inteligență artificială. Aceste tancuri, denumite Tachikoma, nu dețin măsurile de siguranță implementate la alți roboți considerându-se că, datorită misiunilor dificile ale Secției 9, trebuie să fie deosebit de flexibile în gândire. Odată cu înlăturarea siguranțelor care limitau gândirea tancurilor însă, ele prezintă riscul dezvoltării emoționale și raționale. Iar deși sunt ținute sub strictă observație de membrii echipei, treptat încep să-și dezvolte personalități distincte în ciuda faptului că memoriile le sunt sincronizate zilnic, lucru care duce la o criză de identitate a acestora.
Tancurile Tachikoma discută adesea similaritățile dintre inteligența artificială și cea umană. Într-un episod intitulat corespunzător „Machines Désirantes”, unul din tancuri îi explică lui Batou, un membru al echipei secției 9, că încep să înțeleagă lumea și îi prezintă o teorie inedită despre Dumnezeu. Robotul susține că Dumnezeu poate fi tradus în matematică prin conceptul de 0, un simbol care reprezintă absența unei semnificații, dar al cărui înțeles este necesar pentru a distinge un sistem de altul, în acest caz pozitivul și negativul. Tachikoma susțin că acest lucru este adevărat atât în variantă analog/umană, cât și în propria lor construcție digitală[10]. Acest argument se referă și la tema recurentă a sufletului sau „ghost” ca esență vitală exclusiv umană care nu poate fi posedată de roboți. Teoria este însă pusă sub semnul întrebării când Tachikoma, a căror individualitate este acceptată după ce reușesc să salveze echipa secției 9 dintr-o situație gravă printr-un atac sinucigaș, sfârșesc prin a se sacrifica o a doua oară pentru a salva un grup de refugiați amenințați de un atac nuclear. Dacă în cazul primului sacrificiu pe care îl fac știu că pot fi reconstruite din memoriile lor salvate și o fac pentru secția 9 pe care au fost construite să o susțină, în al doilea caz sunt conștiente că nu vor putea fi repuse în funcțiune și aleg să se sacrifice pentru un grup de străini. În această scenă sunt auzite cântând: „Suntem vii, fiecare dintre noi, când ne ridicăm mâinile spre soare și să lăsăm lumina să treacă prin ele, putem vedea sângele cum curge prin ele, un roșu aprins.”
Astfel, tancurile Tachikoma pun în contrast propria inteligență artificială cu cea umană, iluminând problema eticii în inteligența artificială, subliniind faptul că dacă roboții își dezvoltă o conștiință, oamenii trebuie să-și schimbe atitudinea față de ei dacă nu vor să-și piardă umanitatea.
În cazul tancurilor Tachikoma, conștiința de sine apare ca a consecință a curiozității lor insațiabile care dă naștere discuțiilor filosofice care duc la ideea de sine, la reflecții asupra naturii vieții și a umanității.
Exemple ar mai fi multe, dar acestea trei oferă perspective interesante ale posibilității apariției conștiinței de sine la roboți. Toate trei presupun că, odată ce conștiința de sine se manifestă, ca o trezire la viață, roboții sunt insuflați cu scopuri și intenții. Ava intenționează să evadeze din casă, Maeve intenționează să plece din Westworld, iar tancurile Tachikoma se sacrifică intenționat. Or, această premisă este cea negată din start de filosofi ca Searle, care susțin că un aparat computațional nu va fi niciodată capabil de intenții.
Problemele de etică ridicate de robotică devin tot mai complexe, iar teoriile precum cea a lui Searle devin tot mai aproape de a fi testate în medii reale. Să luăm de exemplu mașinile care se conduc singure. Acestea trebuie să înțeleagă traficul, drumul, diferitele obstacole și întâmplări neașteptate care se ivesc. Un programator nu poate să prezică toate situațiile în care mașina va lua o decizie, lucru care, din punct de vedere etic, poate duce la anumite probleme. În cazul unui accident, pe cine trebuie să salveze mașina? Pe proprietarul ei? Pe eventualii pietoni? Să calculeze care traiectorie va cauza cele mai puține morți chiar dacă asta ar însemna să-și sacrifice proprietarul[11]? Dacă însă, într-o zi, mașina se va atașa de proprietarul ei și va decide singură să îl salveze indiferent de ce se va întâmpla cu restul pasagerilor sau cu ceilalți oameni implicați în accident? Atunci vom putea vorbi de o inteligență artificială cu intenții.
Între timp, știința dezbate, dar și avansează. Roboții au trecut testul Turing deja, pe Marte Curiosity își cântă La mulți ani, iar FRIEND ajută oamenii vârstnici și cu dizabilități să trăiască mai bine. Roboții din viața reală par însă departe de fanteziile, atât pozitive cât și negative, ale scriitorilor SF, continuând să fie construiți în mare din considerente practice.
[1] The Chinese Room Argument, Stanford Encyclopaedia of Philosophy, https://plato.stanford.edu/entries/chinese-room/#1
[2] Ibid.
[3] Ibid.
[4] Dennett, Daniel C., Consciousness in Human and Robot Minds, https://ase.tufts.edu/cogstud/dennett/papers/concrobt.htm
[5] Ibid.
[6] Mufson, Beckett, A Beautiful Love Story Between Two Glitch Art Twitter Bots, https://creators.vice.com/en_au/article/3d5dz5/a-beautiful-love-story-between-two-glitch-art-twitter-bots
[7] Griffin, Andrew, Facebook’s artificial intelligence robots shut down after they start talking to each other in their own language, http://www.independent.co.uk/life-style/gadgets-and-tech/news/facebook-artificial-intelligence-ai-chatbot-new-language-research-openai-google-a7869706.html
[8] Asimov, Isaac, Runaround, I, Robot, New York City, Doubleday, 1950, p. 40.
[9] Kitano, Naho, Animism, Rinri, Modernization; the Base of Japanese Robotics, http://www.roboethics.org/icra2007/contributions/KITANO%20Animism%20Rinri%20Modernization%20the%20Base%20of%20Japanese%20Robo.pdf
[10] Harris-Jones, Joshua, Symptomatic reading of Kenji Kamiyama’s Ghost in the Shell: Stand Alone Complex, http://harrisjonesanthropology.com/2015/10/symptomatic-reading-ghost-shell/
[11] Lin, Patrick, The ethical dilemma of self-driving cars, TEDEd, https://www.youtube.com/watch?v=ixIoDYVfKA0.