Cine răspunde pentru crima robotului?

Vorbeam, ieri, despre dilema morală din industria auto: pe cine va proteja o mașină autonomă, pe pasageri sau pe pietoni? Până la această dilemă, însă, mai există una, cea a responsabilității juridice. Cine va răspunde pentru uciderea sau rănirea unor persoane de către un autoturism fără șofer?

Oricât de perfecționate ar fi și oricâtă putere de calcul ar îngloba computerele, până la urmă se pot întâmpla accidente. Chiar dacă o Inteligență Artificială (IA) este mai rapidă în reflexe decât un șofer uman, tot pot exista probleme sau cazuri fără soluție, în care mașina trebuie să aleagă pe cine pune în pericol.

În situația clasică, responsabilitatea este a șoferului uman. În situația în care mașina nu are șofer uman și este condusă de o IA, cine răspunde juridic? Mai ales că nici unul dintre dezvoltatorii de IA nu se grăbește să implementeze ceva în genul celor trei Legi ale Roboticii, inventate de Isaac Asimov.

„Un robot nu are voie să pricinuiască vreun rău unei ființe umane, sau, prin neintervenție, să permită ca unei ființe omenești să i se facă un rău”, spune Prima Lege a Roboticii și am dubii că va fi implementată IA din moment ce se află în studiu roboți de luptă, care vor avea ca sarcină uciderea oamenilor. Ca în Terminator, de exemplu.

Așadar, soluția eficientă economic pentru această problemă ar fi să nu existe nici o vină, și să se considere accidentul drept un „Act of God”, „voință divină” sau „forță majoră”, cum doriți să traduceți, ca în cazul loviturii unui fulger sau a unei alunecări de teren. În fond, nici fulgerul și nici malul care se surpă nu sunt rezultatul unei acțiuni umane. Cât de ușor s-ar putea convinge lumea să accepte această idee?

Probabil foarte ușor, marketingul nu mai este un secret iar omenirea cere, practic, să fie mințită. Doar că rezultatul ar fi, probabil, devastator în timp deoarece viața umană ar valora tot mai puțin. Nu că acum ar însemna foarte mult, actualul sistem economic mondial fiind orientat să îndeplinească alte criterii.