Nick Bostrom este profesor de filosofie la Universitatea Oxford și cofondator al Institutului despre Viitorul Umanității și al Programului asupra Impactului Tehnologiei asupra Viitorului din cadrul Oxford Martin School. Este autor a peste 200 de lucrări. A fost profesor și la Univesritatea Yale și are studii de fizică, neuroștiință computațională, logică matematică și filosofie. Este un gânditor foarte original, susținând, printre altele, ipoteze controversate precum aceea a simulării, conform căreia există șanse statistice semnificative să trăim actualmente într-o simulare computerizată. Volumul Superinteligența, care urmează să apară la Editura Litera până la sfârșitul anului, analizează exhaustiv scenariile posibile pentru dezvoltarea Inteligenței Artificiale (IA) la nivel uman și dincolo de nivelul uman în viitorul apropiat, precum și implicațiile profunde ale acestor scenarii asupra reconfigurării naturii umane, istoriei și relațiilor sociale. Volumul este tradus de Doru Căstăian. Vă oferim, în avanpremieră, câteva fragmente.

 

Craniul tău găzduiește în interiorul lui ceva care te ajută să citești. Acest lucru, creierul uman, are anumite abilități pe care creierele animalelor nu le au. Abilitățile respective ne-au dat, în definitiv, poziția dominantă în natură. Restul animalelor au mușchi mai puternici și colți mai ascuțiți, noi avem creiere mai inteligente. Modestul nostru avantaj in privința inteligenței generale ne-a făcut să dezvoltăm limbajul, tehnologia și organizarea socială complexă. Avantajele speciei noastre s-au adunat de-a lungul timpului, intrucat fiecare generație a construit pe ceea ce i-au lăsat predecesorii ei. Dacă, într-o zi, vom realiza creiere artificiale care să le depășească intelectual pe cele umane, superinteligența aceasta ar putea deveni extrem de puternică. În plus, așa cum soarta gorilelor depinde, acum, mai mult de oameni, decât de gorile, soarta speciei noastre va ajunge să depindă, in același fel, mai degrabă de acțiunile superinteligenței artificiale. Avem totuși un avantaj. Noi suntem cei care construim mașinile. În principiu, am putea realiza o superinteligență care să protejeze valorile umane. Am avea motive întemeiate să facem asta. În practică, problema controlului – adică modul în care am controla ce va face superinteligența – pare destul de dificilă. De asemenea, cel mai probabil, șansa noastră, din acest punct de vedere, va fi unică. Dezvoltarea unei superinteligențe ostile va face imposibilă înlocuirea sau modificarea preferințelor acesteia. Soarta ne-ar fi pecetluită.”

 

«Chiar dacă admitem că o superinteligență ar putea avea toate caracteristicile ce se regăsesc la om, laolaltă cu altele care nu se regăsesc, tendința noastră de a antropomorfiza tot ne-ar putea duce la subestimarea gradului în care o superinteligență ar putea realmente depăși abilitățile umane. Eliazar Yudkowsky, după cum am văzut într-un capitol anterior, a fost deosebit de ferm în condamnarea unor astfel de viziuni greșite: conceptele noastre de „inteligență“ și „prostie“ sunt distilate din experiența noastră desfășurată în raza abilităților umane, deși diferențele dintre doi oameni sunt in medie nesemnificative față de diferențele care ar putea apărea între un om și o superinteligență.»

 

„Un risc existențial este acela care amenință cu extincția vieții inteligente care iși are originea pe Pământ sau cu distrugerea sau afectarea radicală și permanentă a potențialului ei de dezvoltare într-o formă dezirabilă. Plecând de la ideea avantajului celui care face prima mutare, de la teza ortogonalității și de la teza convergenței instrumentale, putem începe să vedem liniile principale ale unui argument pentru care ne-am putea teme că rezultatul natural al dezvoltării unei superinteligențe artificiale este catastrofa existențială. La început, am discutat cum o superinteligență artificială ar putea obține un avantaj strategic decisiv. Această superinteligență s-ar afla atunci în poziția de a forma un unicatum și de a modela viitorul vieții de pe Pământ. Ce se întâmplă din acel moment depinde în mare măsură de motivațiile superinteligenței. Apoi, teza ortogonalității sugerează că nu putem presupune cu ușurință că o superinteligență va adopta vreuna dintre valorile finale asociate, de obicei, cu ințelepciunea și cu dezvoltarea intelectuală la oameni – cu curiozitatea științifică, cu grija binevoitoare față de ceilalți, cu iluminarea spirituală și contemplația, cu renunțarea la valorile materiale, gustul pentru cultura rafinată sau pentru plăcerile simple ale vieții, cu modestia și altruismul etc. Vom încerca sa evaluăm mai târziu dacă este posibilă construcția prin efort deliberat a unei superinteligențe căreia să-i pese de aceste valori sau de bunăstarea umană, de binele moral sau de orice alt scop complex la care proiectanții ei s-ar putea gândi. Dar nu este deloc exclus – și, de fapt, este mult mai ușor din punct de vedere tehnic – să fie construită o superinteligență care să aibă ca unic scop să calculeze extensia zecimală a lui pi. Acest fapt sugerează că – în afara cazului în care nu se intervine în mod special – o primă superinteligență ar putea avea un scop reducționist sau aleatoriu precum acesta. În al treilea rând, teza convergenței instrumentale sugerează că nu putem presupune cu ușurință că o inteligența cu scopul de a calcula zecimalele lui pi (sau care să facă agrafe sau să numere firele de nisip) își va limita acțiunile în așa fel încât să nu impieteze asupra scopurilor omenești. Un agent cu un astfel de scop ar avea ca țel convergent să achiziționeze, în anumite situații, cât mai multe resurse și să elimine, pe cât posibil, posibilele amenințări la adresa sa și a sistemului său de scopuri. Ființele umane sunt potențiale pericole; cu siguranță sunt resurse fizice. Luate împreună, aceste trei puncte indică faptul că prima superinteligență ar modela viața originară de pe Pământ, ar putea să nu aibă scopuri antropomorfe și va avea aproape sigur rațiuni instrumentale pentru a urmări achiziția continuă de resurse. Dacă ne gândim că ființele umane constituie resurse utile (cum ar fi faptul că reprezintă structuri atomice organizate) și că depind pentru a supraviețui și a prospera de numeroase resurse locale, putem vedea că scenariul acesta s-ar putea încheia cu ușurință cu extincția umanității.”

 

«Un proiect menit să dezvolte superinteligență artificială poate eșua în numeroase feluri. Multe dintre ele sunt „benigne“, în sensul că nu vor duce la catastrofă existențială. De exemplu, proiectul ar putea rămâne fără finanțare sau ar putea să devină incapabil de dezvoltare cognitivă până în punctul în care să atingă nivelul superinteligenței. Erorile benigne vor apărea de mai multe ori intre momentul prezent și cel în care vom obține superinteligența. Dar există și alte căi de a eșua, pe care le numim „maligne“, întrucât implică un risc existențial. Una dintre trăsăturile unei erori maligne este aceea că elimină posibilitatea de a încerca din nou. De aceea, numărul erorilor maligne care ar putea apărea este fie zero, fie unu. O altă trăsătură a erorii maligne este aceea că presupune o doză importantă de succes: doar un proiect carea reușit in foarte multe privințe ar putea duce la o superinteligență care să presupună riscul unei catastrofe existențiale. Când un sistem slab funcționează prost, răul făcut este, la rândul lui, mic. Dacă însă un sistem care are avantaj strategic decisiv funcționează greșit sau dacă un sistem care funcționează greșit dobândește o astfel de putere, răul rezultat poate duce în mod direct la o catastrofă existențială – o distrugere globală a potențialului axiologic al umanității; adică la un viitor în care nu va mai exista nimic din ce prețuim noi, oamenii.»

 

„Metodele de control al capacităților încearcă să prevină rezultatele nedorite, prin limitarea a ceea ce poate face sistemul. Aceasta poate presupune plasarea sistemului într-un mediu care să  împiedice efectele maligne (metode de încarcerare) sau în care există motive convergente puternice pentru a nu se implica în activități dăunătoare (metode prin stimulare). S-ar putea folosi, de asemenea, limitarea capacităților unei superinteligențe (oprire în dezvoltare/diminuare). În plus, metodele de control al capacităților pot implica folosirea mecanismelor pentru detectarea automată și reacție la diverse tipuri de eroare legată de

conținut sau de transgresiune (metoda trăgaciului).”

„În raport cu posibilitatea apariției inteligenței artificiale, noi, oamenii, suntem asemenea unor copii mici care se joacă cu o bombă. Cam așa arată decalajul dintre puterea jucăriei noastre și imaturitatea comportamentului nostru. Superinteligența este o provocare pentru care nu suntem pregătiți încă și pentru care nu vom fi pregătiți foarte mult timp de acum încolo. Nu știm exact când se va produce apariția ei explozivă, deși, dacă vom ține bomba la ureche, s-ar putea să auzim un mic ticăit înainte. Cel mai bun lucru pe care l-ar putea face un copil cu o bombă pe care o ține în mâini ar fi să o așeze jos cu prudență, să iasă din cameră cat mai repede și să abordeze cel mai apropiat adult. Totuși, noi nu ne confruntăm cu un singur copil, ci cu mai mulți, fiecare având acces la un mecanism de declanșare. Șansele ca toți acești copii să fie suficient de înțelepți pentru a renunța la preocupările periculoase par destul de neglijabile. E destul de probabil ca un mic nesăbuit să apese la un moment dat declanșatorul, ca să vadă ce se întâmplă. Nu avem nici posibilitatea de a ne ascunde, pentru că o explozie a inteligenței ar distruge și cerurile. Și nu există nici vreun adult la care să mergem. În aceste condiții, orice entuziasm pare deplasat. Mai degrabă ar trebui să simțim consternare și frică; dar poate că atitudinea cea mai potrivită ar fi aceea de a încerca să dăm ce avem mai bun, ca și cum ne-am pregăti de un examen greu care fie ne va face visele să devină realitate, fie le va anula pe vecie. Nu prezic că ne așteaptă valuri de fanatism. Explozia inteligenței poate fi încă la distanță de decenii de noi. Mai mult, sarcina pe care o avem în față este, în parte, aceea de a ne ține de umanitatea noastră: să ne păstrăm temeiurile, buna judecată, decența chiar și când ne confruntăm cu cea mai inumană situație. Va trebui să ne folosim de tot ce avem mai bun în noi pentru a găsi o soluție. Să nu pierdem, însă, din vedere ceea ce este semnificant la scară globală. Prin ceața densă a nimicurilor zilnice, putem percepe, chiar dacă vag, sarcina fundamentală a epocii noastre. În cartea de față am încercat să distingem câteva trăsături a ceea ce este, deocamdată, doar o viziune amorfă și definită negativ – una care instituie ca principală sarcină morală a noastră (cel puțin, din perspectivă impersonală și lumească) reducerea riscului existențial și trasarea unei traiectorii spirituale a omenirii care va conduce la utilizarea cu bucurie și compasiune a zestrei cosmice a umanității.”

 

 

Share.

About Author

Comments are closed.

Descoperă mai multe la Recenzii, interviuri și evenimente culturale ISSN 2501-9783 ISSN-L 2501-9783

Abonează-te acum ca să citești în continuare și să ai acces la întreaga arhivă.

Continuă lectura