O dilemă etică

Săptămâna trecută, presa internațională a abordat o problema interesantă, care, desigur, la noi nu contează prea mult, dar poate reprezenta un punct major în dezvoltarea industriei auto. La noi există bancul acela cu șoferul care, confruntat cu posibilitatea să lovească ori o bătrână, ori o tânără arătoasă, este întrebat pe care ar calca-o.

Orice răspuns ar da, este greșit, pentru că nu e o problemă de etică, este doar o poantă: nu trebuie să calce nici tânăra și nici bătrâna, e suficient să calce frâna. Revenind la treburi serioase, există o problemă de etică nerezolvată: un vagon de tramvai scăpat de sub control se îndreaptă spre o zonă în care sunt cinci muncitori care repară linia, fără să știe că sunt în pericol.

Sunteți, însă, în situația de a fi chiar lângă macazul care poate trimite tramvaiul pe o linie secundară unde se află numai un singur muncitor.

Nu faci nimic și cinci oameni vor muri sau alegi să schimbi macazul și vei salva cinci oameni, dar prin acțiunea ta vei ucide un om? Din această dilemă nu s-a putut ieși. De o astfel de problemă au discutat și marile ziare occidentale zilele trecute.

Mașinile autonome, vor putea să ia decizii mult mai rapid decât dacă ar fi fost conduse de șoferi umani, însă, vor exista și cazuri în care computerul se va găsi în situația în care va trebui să decidă pe cine lovește și pe cine cruță.

Va lovi bunicuța care a început să traverseze strada fără să se asigure sau va frâna brusc și va face o manevră evazivă, punând în pericol integritatea pasagerilor? Sau va avea de ales între a o lovi bunicuță ori pe nepoțica aflată cu un pas în fața ei? Computerul nu va decide decât ceea ce este programat să facă.

Adică, va lua acea decizie pe care un om i-o va stabili ca instrucțiune. Va feri pietonul și va pune în pericol pasagerii. Sau va pune mereu pasagerii mai presus de viața pietonilor. Oricum ai da-o, dilema rămâne, pentru că un om va decide cine moare și cine trăiește. Dar are acel om dreptul să stabilească acest lucru?