W dniu 31 maja 2016 r. Komisja Prawna Parlamentu Europejskiego opublikowała „Projekt sprawozdania zawierającego zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki” (2015/2103(INL)). Dokument ten porusza problematykę funkcjonowania sztucznej inteligencji w obrębie prawa, mając na uwadze gwałtowny rozwój osiągnięć w dziedzinie robotyki. W założeniu propozycje zawarte w dokumencie miałyby znaleźć zastosowanie w wypadku powstania sztucznej inteligencji dorównującej ludziom.
Komisja Prawna, uzasadniając konieczność uregulowania tej dziedziny, wskazuje między innymi na obawy co do zatrudnienia, stabilności systemów zabezpieczenia społecznego oraz wzrostu dysproporcji w podziale bogactwa i wpływów. W dalszej części zaś, wzywa Komisję do zaproponowania wspólnej europejskiej definicji inteligentnych robotów autonomicznych, a także przedstawia szereg propozycji dotyczących rozwoju robotyki i sztucznej inteligencji w kontekście strategii politycznych UE.
Z obecnej perspektywy, powyższy dokument może wydawać się pewnym kuriozum. W tej chwili, osiągnięciem dla zaawansowanego robota bywa wejście po schodach czy „zdanie” Testu Turinga na 33%1 Test Turinga to sposób określania zdolności maszyny do posługiwania się językiem naturalnym i pośrednio mającym dowodzić opanowania przez nią umiejętności myślenia w sposób podobny do ludzkiego. Przyjmuje się, że, aby „zdać” Test Turinga, przynajmniej 30% rozmówców musi wziąć program komputerowy za człowieka. Pierwszy raz udało się to osiągnąć programowi Eugene Goostman w 2014 r.. Z kolei w mediach, projekt sprawozdania przedstawiany jest jako pretekst polityków Unii Europejskiej do nałożenia dodatkowych obciążeń podatkowych na producentów i użytkowników robotów.
W mojej ocenie krytyczne opinie w stosunku do projektu są w przeważającej mierze nieuzasadnione, zaś sam dokument nie powstał ani chwilę za wcześnie.
Noblista Stephen Hawking ostrzega, że bardziej niż rozwoju sztucznej inteligencji powinniśmy obawiać się nierówności wywołanych niesprawiedliwym podziałem dóbr wyprodukowanych przez roboty2 http://www.cnet.com/news/stephen-hawking-says-we-should-be-more-frightened-of-capitalism-than-robots/. Kwestie społeczne, o których mówi Hawking, ściśle przekładają się na potrzeby dotyczące legislacji. Ewentualna luka prawna może bowiem prowadzić do narastania negatywnych skutków społecznych, etycznych, politycznych i ekonomicznych. Konsekwencjom tym, pomogłoby zapobiec prawodawstwo ustanowione z odpowiednim wyprzedzeniem.
Niewykluczone, że za kilkadziesiąt lat prawodawca będzie musiał odpowiedzieć na następujące pytania: Czy androidom przysługuje zdolność prawna? Czy chronią je prawa człowieka? Czy powinny uzyskać prawa obywatelskie? I – najważniejsze – czy myślące istoty są własnością swojego twórcy i czy powinny stać się przedmiotem obrotu gospodarczego?
Należy również zwrócić uwagę, że problematyka nakreślona w projekcie sprawozdania nie zaktualizuje się dopiero, gdy sztuczna inteligencja dorówna inteligencji ludzkiej. Projekt sprawozdania sygnalizuje chociażby problem konstrukcji zasad odpowiedzialności za szkodę wyrządzoną przez robota. Ten problem trzeba będzie rozstrzygnąć już w chwili, gdy powstaną pierwsze maszyny zdolne do podejmowania samodzielnych decyzji.
W mojej ocenie, docelowo roboty powinny uzyskać status możliwie najbliższy osobie fizycznej (projekt sprawozdania posługuje się pojęciami „osoby elektronicznej” i „osobowości elektronicznej”). Kwestią wtórną jest natomiast, czy status ten powinien być podkategorią osobowości fizycznej czy instytucją sui generis.
Niemniej jednak, zapewnienie inteligentnym robotom możliwości samostanowienia powinno być traktowane jako priorytet, mając na względzie perspektywę gospodarczą oraz politykę społeczną. Przyznanie androidom podmiotowości prawnej stanowiłoby gwarancję ograniczenia siły przetargowej producentów robotów, którzy na gruncie obowiązującego prawa, stają się ich właścicielami. Takie rozwiązanie mogłoby również przyczyniać się do ochrony miejsc pracy oraz do wsparcia dla małych przedsiębiorców. Wizja biznesu wypierającego pracę ludzką, a opartego na sile roboczej, która nie musi jeść i odpoczywać, i której nie trzeba zapewnić minimum egzystencji, wydaje się bowiem wizją co najmniej pesymistyczną.
Za prawdziwie problematyczny uznać należy jednak nie stan docelowy, a stan pośredni, w którym roboty zyskają ograniczoną świadomość, będą rozumiały proste polecenia w języku naturalnym, a nawet abstrakcyjne pojęcia takie jak strach, gniew czy niechęć. Może wówczas dojść do sytuacji, w której w partykularnym interesie niektórych przedsiębiorców będzie zahamowanie rozwoju sztucznej inteligencji w obawie przed utratą prawa do rozporządzania robotami jako istotami nie w pełni świadomymi.
Sytuacji tej należałoby przeciwstawiać rozwiązania legislacyjne, które będą budować ograniczoną autonomię prawną robotów, a przy tym – staną się stymulantami rozwoju ekonomicznego. Potrzebom tym w sukurs przychodzi prawo starożytnego Rzymu i koncepcja peculium.
Przez peculium, na gruncie prawa rzymskiego, należy rozumieć majątek, który niewolnik (a w tym przypadku – robot) otrzymał od właściciela do samodzielnego zarządu. Koncepcję stosowanego wobec robotów cyfrowego peculium przedstawił w roku 2013 Ugo Pagallo – profesor prawoznawstwa na Uniwersytecie w Turynie3 The Law of Robots, Ugo Pagallo 2013.. To cyfrowe peculium miałoby w głównej mierze pełnić funkcję zabezpieczenia odszkodowawczego.
Uważam jednak, że model zaproponowany przez Pagallo należy rozszerzyć o przyznanie robotom ograniczonej zdolności prawnej i zdolności procesowej, przynajmniej w sferze majątkowej, tak aby „osoby elektroniczne” mogły uzyskać status najemcy czy właściciela określonego majątku. Priorytetem w zakresie zobowiązań i czynów niedozwolonych powinno być z kolei odejście od odpowiedzialności na zasadach ryzyka właściciela, a przyjęcie odpowiedzialności samego robota na zasadach winy.
Jakkolwiek może się to wydawać sprzeczne z intuicją, która podpowiada, że dysponujący znacznym majątkiem właściciel robota powinien pozostawać podmiotem odpowiedzialnym finansowo, to należy w tym względzie prowadzić politykę długofalową. Koncentracja odpowiedzialności
w rękach właścicieli robotów byłaby niewątpliwym ułatwieniem z punktu widzenia proceduralnego i procesowego. Z drugiej jednak strony, stanowiłaby niewątpliwe zagrożenie z punktu widzenia społecznego i z punktu widzenia ochrony rynku pracy.
Cyfrowe peculium stanowiłoby zaś motywację dla właścicieli robotów do przyznawania maszynom własnego majątku, czy chociażby zapewniania robotowi jakiegoś rodzaju rozproszonej płynności finansowej, jako gwarancji dla odzyskania należności przez drugą stronę umowy. Kontrahenci, bowiem, nie ryzykowaliby wchodzenia w umowy wykonywane przez roboty nie posiadające należytego zabezpieczenia finansowego. Maszyny stałyby się zaś mniej konkurencyjnymi pracownikami niż ludzie.
Rozproszona odpowiedzialność stanowiłaby też czynnik motywujący konsumentów do korzystania z usług ludzi, przynajmniej do momentu, w którym roboty nie uzyskają płynności finansowej, stosownej do ryzyka, jakie wiązałoby się z korzystaniem z usług „osoby elektronicznej”.
Przede wszystkim jednak, należałoby konsekwentnie zapobiegać sytuacji, w której interesy partykularne biorą górę nad interesem społecznym. W interesie społecznym leży zaś przyznanie inteligentnym robotom możliwie najszerszej autonomii prawnej i ekonomicznej, a w rezultacie – zapobieżenie scenariuszowi, w którym roboty jako darmowi pracownicy stanowić będą kartę przetargową wobec konsumentów, kontrahentów i pracowników. Innymi słowy należy uniemożliwić stosowanie gróźb ekonomicznych, w rodzaju groźby wymiany pracowników na roboty.
Nie można jednak zapominać, że tak jak na uczestnikach obrotu prawnego, tak i na prawodawcy spoczywają doniosłe obowiązki w zakresie legislacji dotyczącej robotyki. Należy wystrzegać się chęci sprowadzania takiego prawodawstwa do próby opodatkowania dóbr wyprodukowanych przez roboty, upstrzonej mglistą obietnicą redystrybucji zysków. Ewentualne rozwiązania muszą być kompleksowe i – z uwagi na ich ciężar gatunkowy – odpowiednio skomplikowane, tak by do minimum ograniczyć ryzyko powstania luk prawnych. Gdy bowiem pojawia się temat nałożenia obciążeń publicznych bez zapewnienia ekwiwalentnych uprawnień, przychodzi mi na myśl hasło, które amerykańscy koloniści w XVIII wieku niestrudzenie powtarzali Koronie Brytyjskiej: „No taxation without representation” (tłum: żadnego opodatkowania bez reprezentacji.)