Czy robot może ponosić odpowiedzialność cywilną?
W poprzedniej notce wyjaśniłem, że roboty nie mogą być osobami, a zatem podmiotami moralności. A więc nie mogą grzeszyć. Co skutkuje też tym, że nie podlegają odpowiedzialności karnej - nie można ich powiesić, gdy zamordują.
Ale też nie podlegają moralnej, czy prawnej, ochronie - właściciel może je bezkarnie zabić, wyłączyć, skasować - i nie będzie to złe moralnie. Będą zawsze przedmiotem własności - nawet, jeśli staną się bardziej inteligentne niż właściciel. Inteligentne roboty są jak zwierzęta. Ale można je objąć ochroną!
To jest problem filozoficzny. Niemniej ma to też swój aspekt dotyczący prawa cywilnego: czy robot może uzyskać osobowość prawną? Czy można od robota zażądać odszkodowania za szkody, których dokona? Czy można go podać do sądu?
Mogę napisać program, który będzie się uczył tego, co ludzie piszą na fejsbuku - i będzie on to naśladował odpowiadając im w podobnym stylu. No i nauczy się mowy nienawiści i będzie ją rozpowszechniał. Prokurator go za to oskarży, a sąd skaże. Kto zapłaci odszkodowanie tym obrażonym? To przecież oni go tej mowy nauczyli, nie ja - więc czemu ja miałbym płacić?
Ten problem już jest poważnie rozważany. W tej oto notce jest informacja o pracach Parlamentu Europejskiego mających na celu utworzenie stosownych przepisów: Autonomiczny, równoległy świat sztucznej inteligencji jest już faktem ?
Mamy już w prawie pojęcia: „osoby fizycznej” i „osoby prawnej” - a Parlament Europejski rozważa utworzenie pojęcia: „osoby elektronicznej” - tak by wprowadzić odpowiedzialnością cywilną robotów. Kilka cytatów:
- „mając na uwadze, że od postaci Frankensteina stworzonej przez Mary Shelley po antyczny mit o Pigmalionie, poprzez historię praskiego golema i robota Karla Čapka (autora pojęcia robot) ludzkość zawsze snuła fantazje wokół możliwości stworzenia inteligentnych maszyn, najczęściej androidów o cechach ludzkich;”
- „mając na uwadze, że rozwój robotyki i sztucznej inteligencji może jednocześnie doprowadzić do przejęcia przez roboty znacznej części pracy wykonywanej obecnie przez ludzi…”
- „mając na uwadze, że istnieje możliwość, że w ciągu kilku dziesięcioleci sztuczna inteligencja przewyższy ludzkie zdolności intelektualne tak, że jeśli ludzkość nie będzie na to przygotowana…”
- „mając na uwadze, że niezbędny jest jednak szereg przepisów odnoszących się zwłaszcza do odpowiedzialności i etyki…”
- „mając na uwadze, że Unia Europejska mogłaby odgrywać kluczową rolę w ustanawianiu podstawowych zasad etycznych, które mają być przestrzegane w ramach rozwoju, programowania i wykorzystywania robotów i sztucznej inteligencji…”
- „mając na uwadze, że im bardziej autonomiczne są roboty, tym w mniejszym stopniu można je traktować jako zwykłe narzędzia w rękach innych podmiotów…”
- „mając na uwadze, że w świetle obecnych ram prawnych roboty nie mogą ponosić odpowiedzialności za akty zaniechania skutkujące szkodą osób trzecich…”
- „mając na uwadze, że nie naruszając zakresu dyrektywy 85/374/EWG, obecne ramy prawne nie będą wystarczające do uwzględnienia szkód powodowanych przez roboty nowej generacji…”
- „...wzywa Komisję do zaproponowania wspólnej europejskiej definicji inteligentnych robotów autonomicznych…”
Moim zdaniem nie da się określić osobowości prawnej robotów. A jeśli się to jakoś pokrętnie prawnie zdefiniuje, to wstrzyma to postęp w tej dziedzinie. Nie da się, bo nie da się określić kto konkretnie miałby tę osobowość uzyskać. Roboty nie mogą być podmiotem praw, bo ten elektroniczny podmiot jest nieokreślony, płynny, mętny, rozmyty, zmienny - i nigdy się go nie uściśli.
Człowiek jest ciałem i umysłem - i się tych elementów nie da oddzielić - oba tworzą konkretny, odrębny byt biologiczny, osobny organizm, łatwo materialnie zauważalny i możliwy do ścisłej definicji.
U robotów można oddzielić ośrodek decyzyjny od wykonawczego i oba rozmyć. Możemy mieć tysiąc dronów działających w stadzie oraz zbiór wirtualnych komputerów w chmurze, które realizują sztuczną inteligencję i zdalnie sterują tymi dronami. To będzie jeden organizm - ale czy możliwy do uchwycenia jako spójna całość?
Może być przecież tak, że gdy to stado dronów znajdzie się w trudniejszej decyzyjnie sytuacji (mgła, chmury, wiatr, atak kogoś) to dowództwo zwiększy moc obliczeniową ośrodka sterującego dronami tak, że dołączy do niego inny zbiór sztucznych inteligencji, łącząc to w większą całość. Takie połączenie może się odbyć na wiele sposobów - albo poprzez połączenie mocy obliczeniowej albo poprzez równoległe podejmowanie decyzji i głosowanie. Również te wykonawcze stada dronów mogą się łączyć i dzielić na wiele sposobów. I co wtedy jest podmiotem, który ma dostać osobowość prawną? Każdy dron z osobna? Każdy komputer fizyczny czy wirtualny?
Ja rozumiem, że osobowość prawna jest potrzebna do tego, by uzyskać odszkodowanie od autonomicznego samochodu, który narobi szkód. No ale co, jeśli taki autonomiczny samochód będzie korzystał nie tylko ze swoich komputerów i kamer, ale komputerów i kamer wszystkich okolicznych samochodów, kamer monitoringu drogowego, inteligentnej nawigacji satelitarnej i prognozy pogody - i będzie to stanowić jedną całość? Proces decyzyjny może być taki, że decyzję co do ruchu samochodu podejmuje raz algorytm na komputerze tego samochodu, raz centrum sterujące, a raz odbędzie się to poprzez głosowanie samochodów z okolicy, które lepiej widzą - w zależności od tego, jaki jest czas na reakcję. I kto ma wtedy płacić odszkodowanie za złą decyzję?
Jeśli zostanie wprowadzona osobowość prawna robotów, to może to spowodować, że z punktu widzenia prawa każdy samochód będzie musiał być autonomiczny sam w sobie i nie będzie mógł korzystać z wiedzy i mocy obliczeniowej kogokolwiek z zewnątrz. Wtedy technologie współdziałania samochodów w stadzie i wspomagania z centrum nie będą się rozwijać! A gołym okiem widać, że współdziałając zapewnią tysiąckroć większe bezpieczeństwo!
Ludzki mózg nie jest podzielny i nie da się mózgów łączyć. Zdarza się rozdwojenie jaźni, ale to jest rzadka choroba psychiczna - trudno ją celowo wywołać i wyleczyć. Ludzie też działają w grupie, ale wciąż można każdego członka grupy wyodrębnić i ustalić jego odpowiedzialność.
Tymczasem bez problemów jedna wirtualna sieć neuronowa może być realizowana na wielu komputerach na raz, a w trakcie jej działania może ona podzielić się na kilka sieci, albo połączyć z innymi w jedną całość - po drodze zmieniając wirtualne komputery, na których działają - cały czas realizując jedno zadanie - na przykład prowadząc zdalnie autonomiczny samochód. Albo może być tak, że jedna sieć realizuje jedno zadanie (prowadzi jeden samochód), a druga inne (prowadzi drugi samochód), ale warunki pogodowe się w obu przypadkach zmienią i jakaś inteligentna sieć, nadzorująca te dwie, dojdzie do wniosku, że trzeba je zamienić miejscami, albo je połączyć w jedną i niech steruje oboma samochodami. Która z tych sieci powinna odpowiadać za ewentualny wypadek? Odpowiada się przecież nie tylko za działanie, ale też za zaniechanie, gdy się działać może.
Problem z rozmyciem osobowości, czy raczej ontyczności, przedmiotów, jest już filozofom znany od starożytności i nazywa się to: "Statek Tezeusza ". Jeśli taki statek uzyska osobowość prawną, a potem będą wymieniane w nim części na nowe, a ze starych zrobi się drugi starek, to który z nich będzie miał tę przydzieloną prawnie osobowość, który będzie recydywistą?
Podobne pytanie można zadać w stosunku do mojego smartfonu, który uzyska osobowość prawną dzięki inteligentnej aplikacji działającej w chmurze, która mi doradza. No i ja go zgubię, i kupię identyczny, w którym umieszczę wszystkie aplikacje i dane ze starego - to będzie ten sam smartfon, czy inny? Jeśli ta aplikacja doradcza, która nadal mi doradza na nowym, wyśle z tego starego, który leży gdzieś w trawie, sygnał odpalający bombę, to ten nowy za to odpowie? Tu te kwestie kiedyś rozważałem: Nowa ontyczność przedmiotów .
Grzegorz GPS Świderski
PS. Notki powiązane:
- Blog
- Zaloguj się albo zarejestruj aby dodać komentarz
- 1332 odsłony
Komentarze
Czyżby?
4 Lutego, 2019 - 06:16
Czyżby, odnoszę do tezy, że robota można będzie obarczać odpowiedzialnością.
Otóż, cofając się od robota wstecz, dochodzimy do jakiegoś konkretnego człowieka. Piszesz w którymś miejscu: "MOGĘ napisać program. który będzie się uczył tego co ludzie piszą na fejsbuku..." W innym miejscu zaś:"Może być przecież tak, że gdy to stado dronów znajdzie się w trudniejszej decyzyjnie sytuacji (mgła, chmury, wiatr, atak kogoś) to DOWÓDZTWO zwiększy moc..."
I tak, w pierwszym cytacie jest osoba ludzka, fizyczna która pisze program. Pisze go w jakimś określonym celu. Można nawet ustalić poza tą osobą, w jakim celu. Zatem istnieje osoba odpowiedzialna, która poniesie konsekwencje. A w drugim przypadku, tą odpowiedzialną osobą jest owo DOWÓDZTWO podejmujące decyzje, a zatem odpowiada.
Każdy robot ma swojego twórcę oraz właściciela. Każdy, dzisiaj. I od dziś trzeba zacząć ustalać akty prawne mające na celu OBOWIĄZEK PRZYPISANIA KAŻDEGO ROBOTA, konkretnej osobie lub instytucji. Jeśli komuś wydaje się, że będzie można ot tak, wypuścić na wolność jakieś inteligentne roboty i zostawić je samym sobie to, powinien się już teraz grubo mylić.
Wczesne ustanowienie prawa, ktore wyeliminuje wyalienowanie inteligentych robotów, jest niezbędne i powinno powstać w jak najwcześniejszej fazie rojeń o suwerenności i niezależności takich robotów.
Dlatego ustawodawstwo prawne powinno w tym przypadku mocno wyprzedzić rozwój robotów i wydać, nawet jeśli nie w pełni kompletne prawo, powodujące obowiązek, wymóg przypisania KAŻDEGO INTELIGENTNEGO ROBOTA konkretnemu człowiekowi lub instytucji. Kropka.
Wtedy też zakończy się wpieranie głupoty, wmawiającej ludziom, że roboty mogą być w pełni suwerenne i niezależne od ludzi. Gdyby dopuszczono do tego, wówczas będziemy mieli do czynienia z przynajmniej dwoma bardzo niebezpiecznymi zjawiskami. Jednym będzie całkowity brak jakiejkolwiek pdpowiedzialności za produkt ludzkiego umysłu, jakim będzie taki robot. Drugim będzie posługiwanie się takimi robotami w celu przemocy.
Dziś wydanie odpowiednich przepisów, choć wydaje się przedwczesne, jest stosunkowo łatwe. Powinno być sposobem na próby wmówienia nam, że robt może posiadać osobowość. Nic bardziej mylnego, o ile zadbamy o to odpowiednio wcześnie. Czyli już teraz.
PiS oczywiście, jak zwykle sprawę prześpi, a Partia Oszustów, jak zawsze, doprowadzi wszystko do absurdu, który będziemy przeklinali do końca swych dni.
Pozdrawiam.
P.S.
Może warto było by stworzyć specjalny wątek-zakładkę tej jednej sprawie poświęcony. Sprawa tylko pozornie wydaje się mało ważna lub wręcz futurystycznie-śmieszna. Ale to może być bardzo niebezpieczne, jeśli Polacy-obywatele oraz instytucje państwowe nie zareagują wyprzedzająco. Czyli przed szkodą. Jest szansa aby choć ten jeden, jedyny raz, nie obudzić się z ręką w nocniku i uprzedzić fakty.
Przepisy
9 Lutego, 2019 - 17:29
Obecne przepisy są wystarczające w kwestii robotów i sztucznej inteligencji. Ale problem w tym, że urzędnicy Unii Europejskiej chcą te przepisy zmienić, chcą scedować odpowiedzialność cywilną z właścicieli i producentów na urządzenia – ale tylko takie, które uznają za inteligentne. W tym celu wprowadzą fundusz, z którego będzie się płaciło odszkodowania, a zasilany będzie oczywiście z jakichś opłat, które na końcu poniesie podatnik. UE to projekt socjalistyczny, więc stosuje socjalistyczne rozwiązania. To nie jest problem polski, problem PiS-u czy PO, to jest głupota i zamordyzm UE.
Pozdrowienia,
Grzegorz GPS Świderski