Mignęła mi ostatnio na LinkedIn informacja o tym, że Sofia, humanoidalny robot, otrzymał prawa obywatelskie w Arabii Saudyjskiej. Okazało się, że informacja jest stara, jednak pytanie, które mi się nasunęło, nie traci chyba na aktualności. Bo umówmy się, robotyzacja nie doprowadziła jeszcze – bynajmniej – do koegzystencji ludzi i maszyn. Przynajmniej nie w takim stopniu, jak przewidywali to pisarze science-fiction z drugiej połowy XX wieku. Owszem, mamy już wokół siebie mnóstwo botów, automatów i maszyn, które zachowują się względnie autonomicznie, jednak test Turinga jest jeszcze przed większością z nich. Nie wątpię jednak, że wkrótce uda się naukowcom, inżynierom i programistom stworzyć byty, których zachowanie będzie doskonałą imitacją interakcji z czymś świadomym.
I tu pojawia się moje pytanie: jeśli robot wchodzi w interakcje i komunikuje się jak człowiek, to czy należy mu przyznać prawa obywatelskie?
Wydaje mi się, że tak. Jednak, co ciekawe, nie dlatego, aby nobilitować tego godność, lecz aby zadbać o własną. Gdyby bowiem pozbawić praw byty wchodzące w interakcje jak ludzie, pozbawiłoby się je również ochrony, w tym prawnej. Pozbawienie ochrony otwiera natomiast pole do nadużyć, wykorzystywania i okrucieństwa. Uczenie się okrucieństwa wobec bytów, których zachowanie i komunikacja idealnie odzwierciedla naszą stępia wrażliwość na godność i krzywdę prawdziwych ludzi. Jeśli bowiem mogę z poczuciem moralnego usprawiedliwienia (lub przynajmniej bez moralnych wątpliwości) nadużywać, wykorzystywać bądź poniżać coś, co mówi do mnie i reaguje jak istota ludzka, to jak zachowam się wobec innej istoty ludzkiej? Szczególnie np. przez internet, gdy tak do końca nie wiem, kto (i czy) siedzi po drugiej stronie połączenia?
Chcąc zachować prawa człowieka dla przyszłych pokoleń powinniśmy rozszerzać ich zakres na wszystkie byty, które będą zdolne do interakcji z nami w sposób zdający test Turinga.