Home > De suflet. > Desire! Is! Irrelevant! I…AM…A MACHINE!

Desire! Is! Irrelevant! I…AM…A MACHINE!

Dacă Asimov (Fie-i țărâna ușoară!) ar fi auzit replica asta din Terminator 3: Rise of the Machines, ar fi vărsat o lacrimă. Nu datorită dramatismului scenei respective, sau pentru că ar fi fost fan al seriei Terminator, ci pentru că felul cum sună vocea sintetizată a robotului T-850, dar mai ales mimica lui Arnold din secvența respectivă, par desprinse din minunatele lui cărți. Când a luat premiul Hugo în 66′ pentru seria Fundației, sunt sigur că nu-și închipuia legile roboticii stând la baza atâtor filme de succes peste mai bine de 40 de ani.
Și chiar dacă în Eu, Robotul unde Will Smith joacă senzațional, nu s-a păstrat linia romanului scris de Asimov, s-a păstrat totuși logica celor trei legi ale roboticii, inclusiv legea zero, toate introduse de Asimov. Așa că nu mă miră prezența unui asemenea moment în cea de-a 3-a parte a Terminatorului. După atâta marșat pe ideea de efecte speciale și film făcut pentru Box Office, au introdus și ei în sfârșit un moment de o intensitate copleșitoare, pe care (din păcate) cred că nu toți fanii genului l-au înțeles pe deplin.
Cred asta, pentru că Daneel Olivaw (robotul preferat al lui Asimov), se confruntă de multe ori cu astfel de probleme, și ajunge datorită blocajelor survenite în urma coflictelor dintre legile roboticii, să… simtă. Nu în măsura în care roboții pot fi umani, ci în măsura în care oamenii pot întâlni blocaje asemănătoare roboticii și care, în urma unor astfel de exemple, creează o asemănare la nivel de percepție între mașini și oameni. O să încerc să mă explic.

În primul rând, pe scurt, legile roboticii:
 1) Un robot nu are voie să pricinuiască vreun rău unei ființe umane, sau, prin neintervenție, să permită ca unei ființe omenești să i se facă un rău;
 2) Un robot trebuie să se supună ordinelor date de către o ființa umană, atâta timp cât ele nu intră în contradicție cu Legea 1;
 3) Un robot trebuie să-și protejeze propria existență, atâta timp cât acest lucru nu intră în contradicție cu Legea 1 sau Legea 2.
Numai că Asimov, datorită acțiunii din romanele sale, introduce și legea zero, și anume:
 – Un robot nu are voie să pricinuiască vreun rău umanitații sau să permită prin neintervenție ca umanitatea să fie pusă în pericol.
Din primele trei legi rezultă clar că robotul este un sclav obedient, cu posibilitate de martir. Adică robotul știe că existența lui contează doar în măsura în care nu riscă să pună în pericol viața unei ființe umane.
Însă apariția legii zero modifică definitiv primele trei legi, pentru că devine lege supremă și are ca scop protejarea umanității, nu a ființelor umane. Cu alte cuvinte, rezultă că un robot poate omorâ o ființă umană, dacă acțiunea în sine ajută atingerii scopului suprem – salvarea umanității.

Până aici e bine, și putem observa în secvența asta conflictul dintre ordinul primit și legea nr. 1 a roboticii lui Asimov. Ba mai mult, delicioasa replică de la minutul 1:23, pune cireașa pe tort.
Ca să ne dăm seama de simplitatea creării unui asemnea conflict, putem oricând să instalăm două programe anti-virus pe propriile computere, să le lăsăm pe ambele active și să asistăm Dumnezeiește cum sistemul se blochează, pentru că dorința supremă a două decizii primare care se bat cap în cap, creează un conflict peste care porcesorul nu poate trece (având limitată puterea de computare).
Cine a văzut filmul ăsta înțelege foarte bine despre ce conflict e vorba aici. T-850 (Arnold) e programat să-l apere pe John Connor, numai că ajunge să fie hăckuit de robotul venit să-l omoare pe Connor și aflat în prezența a două ordine contradictorii, se blochează și are nevoie de restart.
Eh, și acum întrebarea de un milion de puncte este: Oare Asimov a inventat legile roboticii, având în vedere și aspectul ăsta uman al conflictelor? Mă întreb asta pentru că de fiecare data când roboții din romanele lui sau din filmele moderne ajung să aibă astfel de conflicte, imaginația umană are cale deschisă către interpretarea sentimentelor. Cu alte cuvinte, eu privitorul, uitându-mă la secvența asta, pot să visez cu ochii deschiși către ideea conform căreia T-850 alege să nu-l omoare pe Connor (cu toate că matematic putea s-o facă la fel de ușor cum putea să n-o facă), și pentru că simte – și pentru că ajunsese să țină la Connor.
Știu, știu, risc să devin patetic laolaltă cu penibil, prin raționamentul ăsta de copil autist în vârstă de patru ani.
Și totuși vă întreb: Câți dintre voi n-ați avut astfel de conflicte interioare? În ce mă privește, nu cred că trece un an calendaristic fără să am unul major. Și atunci de ce-am fi doar noi capabili să gustăm din felul de-a fi al roboților, și invers nu? Spun asta, pentru că de fiecare dată când mie mi se întâmplă, eu mă blochez ca în secvența asta. Total. Nu pot nici să mai vorbesc. Ba chiar ajung și la stadiul de imobilizare în diverse situații în care blocajul este puternic. Creierul refuză să mai computeze. De fapt asta fiind singură diferență între noi și un robot – puterea de computare (de-aia sistemele de operare le putem bloca atât de ușor printr-un conflict creeat de doi anti-viruși, pentru că procesoarele au o putere de computare prea mică).
Așa că dacă eu mă simt robot în multe situații, în care am nevoie să iau o decizie și nu pot pentru că sunt incapabil să aleg o variantă până nu-mi iau un restart (sau poate nu sunt în stare să aleg niciodată), de ce n-ar fi și roboții umani în diverse situații?
Din punctul meu de vedere, singurele diferențe între noi și roboți, ar fi doar conștiința de sine, liberul arbitru și sufletul. Pentru că sentimentele pot fi oricând atinse, datorită interpretării umane a situațiilor.
Spre exemplu în situația din secvența asta, eu știu că T-850 it’s a machine, numai că atâta timp cât eu ca om am întâlnit probleme similare cu a lui, pot prin simpatie, să corelez situația lui Arnold cu cele pe care eu le-am întâlnit, și prin inversarea polilor, să-i atribui lui caracteristicile mele umane – prezența sentimentelor. Iar asta survine în urmă conștientizării faptului că în momentele de blocaj i’m a machine too. Nu știu câți dintre voi ați simțit așa ceva, dar eu când mă blochez în fața unei decizii pe care nu pot s-o iau din motive care-mi depășesc capacitatea de computare, capăt răceala, privirea fixă, zgârcenia în cuvinte și mișcări, limitarea priorităților, toate fiind caracteristice roboților.
Știu că sună ca și cum îmi mărturisesc prostia (nu că n-aș fi 😀 ), pentru că un om, poate lua o decizie în orice situație. Nu e constrâns de factori externi, pentru că subiectivismul omoară logica elementară. Adică dacă sunt egoist, mincinos, hoț, curvar, escroc etc., am oricând capacitatea de a evita astfel de blocaje, pentru că deciziile pe care le iau reușesc să eludeze punerea în balanță a tuturor variantelor what if? și acceptarea deciziei optime. Subiectivismul este singura trăsătură umană care face distincția între om și robot la nivel decizional.
Numai că eu (și sunt convins că nu-s singurul – altfel m-aș simți prea bine prin unicitatea mea 😀 ), mă confrunt cu multiple și dese situații în care analiza unor evenimente o fac pe baza logicii, uneori chiar și când vine vorba de sentimente.
Țineți minte blocurile decizionale pe care ni le-au predat profesorii de logică în liceu? Dacă cutare, atunci A sau B; dacă A atunci C sau D, iar dacă B atunci E sau F. Eh, problema apare când ramifici toate brațele astea, începi să adaugi și dacă Da sau dacă Nu, și ajungi în fața unui conflict robotic desăvârșit atunci când nimic nu indică una din variante ca fiind optimă. Sadly, that’s me – în multe situații.
Așa că din comoditatea de a analiza până și situația asta, pentru că m-aș bagă singur în alt conflict decizional, prefer să consider că și roboții au sentimente, atâta timp cât I…AM…A MACHINE! îmi sună în cap destul de des în legătură cu propria-mi persoană…
 Singurul aspect în care omul poate spune că trece și peste legile roboticii și peste conflicte provocate de programe primare care se bat cap în cap, cred că este iubirea. Pentru că dacă iubești, treci peste orice opreliște, încalci orice regulă, pui deoparte orice tabel și sistem de calcul, și îți asculți inima uitând de rațiune. Ăsta-i și motivul pentru care de când mă știu am fost adeptul lui Don’t think! Feel! (Bruce Lee), în locul lui Think before you do it! (habar n-am cine-a zis-o).
Și totuși până și aici pot apărea conflicte. În sensul că o persoană poate iubi două persoane în același timp, în loc de una. Și atunci ce face în momentul în care trebuie să ia o decizie? Apelează la legea zero a roboticii? Dacă iubirea este singurul sentiment care omoară sistemul decizional bazat pe calcul rațional, atunci ce-i de făcut când însăși iubirea e divizată și este necesară luarea unei decizii în interiorul sentimentului în sine? Mutăm tabelul pe palierul respectiv și începem ramificarea variantelor în scopul găsirii unei soluții?
 Până și numărul întrebărilor pe care mi le-am pus aici îmi creează un conflict,  motiv pentru care aleg să mă opresc până când ajung să mă blochez  total. 😉 Așa că dacă ar fi să concluzionez, aș spune că nu știu sigur dacă roboții simt, dar în același timp sunt convins că în mult prea multe momente eu sunt și robot pe lângă om. Și cum până și Arnold învățase în Terminator să spună Hasta la vista, baby!-ul ăla sarcastic, sau I’ll be back!-ul ăla plin de ironie, prefer să-mi aduc și eu aminte de o vorbă pe care o aveam în liceu, și pe care o foloseam abuziv de des în perioada în care citeam enorm de mult S&F: Mi se rupe, sunt android!

Advertisements
  1. 16 August 2012 at 18:31

    Da, un post savuros la apus de soare. 🙂 Deseori suntem androizi. Aplicam f des proceduri pe care le-am setat pentru binele sistemului nostru de valori (care poate fi asociat cumva cu perceptia noastra despre Umanitate), desi uneori nu le SIMTIM.

    • qatalin
      16 August 2012 at 18:48

      Mulțumesc frumos Laura. Perfect de acord cu tine și aș mai puncta doar un lucru, în continuarea a ceea ce ai spus tu. Îți dai seama ce nasol e să ajungi să SIMȚI momentele în care survine declicul între om și robot? Aș prefera să fie și în cazul meu așa cum spui tu și să nu SIMT momentele alea… 😦 M-aș bucura și eu de niscaiva ignoranță, pe care s-o transform în bliss…

  2. Jeremy
    17 August 2012 at 15:52

    Daca se ajunge la stadiul de`a iubi doua persoane (nu “muti niciun tabel”), decizia cea mai inteleapta ar fi ca cea de`a doua sa fie aleasa. 🙂 Pentru ca daca exista suficienta iubire pentru prima nu se ajungea la tot iubire pentru a doua! 😀 Asta, luand`o logic!
    Ambele “sisteme” prezinta avantaje si dezavantaje…..cel mai puternic pana la urma va invinge!

    • qatalin
      17 August 2012 at 16:01

      Mda…cred că ai dreptate. Nu-mi place să contrazic logica, iar ce-ai spus tu e foarte logic.
      Ăsta-i și motivul pentru care eu cred că-i bine să fii android. Dacă decizi doar cu inima, nu-i bine, iar dacă decizi doar cu rațiunea/logica, iar nu-i bine. Când le combini, iese perfect. 😉

  3. ellyweiss
    18 August 2012 at 12:36

    Filmul despre care vorbesti…nu cunosc, nu ma bag.
    Totusi…cum sa iubesti doua persoane in acelasi timp? Sigur fata de una e doar simulare…sau mila…sau Dumnezeu stie ce…
    Dragoste in niciun caz.

    • qatalin
      18 August 2012 at 12:45

      Oricât de mult mi-aș dori să te contrazic, nu pot s-o fac. Pentru că …s-ar putea să ai dreptate.

  4. 21 August 2012 at 23:27

    @ellyweiss: Te contrazic. Cred ca se poate sa iubesti doua persoane in acelasi timp…

  1. 20 November 2012 at 4:08

What's on your mind?

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: