ISSN: 2657-800X
search
2024, t. 7, nr 1 (13), poz. 9
2024, vol. 7, No. 1 (13), item. 9
2024-06-29
wyświetleń: 139 |

Paweł Księżakschool

Prawo cyborgów (6). Neuroprawa w kontekście technologicznego wsparcia umysłu

Rozwój technologii związanych z ulepszaniem umysłu lub pozwalających na bezpośrednią komunikację z komputerem (takich jak neuralink) rodzi szereg zagadnień prawnych związanych z prawem do prywatności i autonomią. Wsparcie umysłu nie jest technologią neutralną, łączy się bowiem z obrazowaniem mózgu, zbieraniem i wysyłaniem danych a nawet może prowadzić do zmiany sposobu, w jaki umysł funkcjonuje a co za tym idzie, co myśli i robi człowiek. W tym kontekście szczególnego znaczenia nabiera koncepcja neuropraw, jako pewnego zestawu nowych lub na nowo zinterpretowanych praw człowieka, których zadaniem ma być ochrona przed skutkami neurotechnologii. Konieczne jest wyjaśnienie, czy wyodrębnienie takich neuropraw jest rzeczywiście potrzebne a jeśli tak, to jaka miałaby być ich funkcja i treść.  

 

*Paweł Księżak, prof. dr hab., Wydział Prawa i Administracji Uniwersytetu Łódzkiego, sędzia Sądu Najwyższego; ORCID: 0000-0002-1224-9183.

Rozwój technologii takich jak interfejsy mózg-maszyna (Brain-Computer Interfaces, BCI), neuroimplanty czy oprogramowanie kognitywne otwiera niespotykane wcześniej możliwości. Myśli, emocje i intencje mogą być odczytywane, zapisywane, a nawet modyfikowane. Technologia ta, obiecując ogromne korzyści w dziedzinach takich jak medycyna, edukacja czy komunikacja, niesie jednak również niebezpieczeństwo naruszenia prywatności i autonomii umysłu. Nie ma tu potrzeby wymieniania kolejnych nowinek technologicznych, bowiem w istocie każdy dzień przynosi nowe osiągnięcia na tym polu. Wydaje się zasadne, by oderwać się od tego, co dzisiaj jest możliwe technologicznie i raczej skupić się na tym, co z dużym prawdopodobieństwem będzie możliwe za kilkanaście lat. Dotychczasowe badania zmierzają w kierunku odczytywania myśli, programowania i wspomagania pamięci i połączenia mózgu z komputerem. Rodzi to wyzwania i zagrożenia, które są nieporównywalne z niczym, co dotychczas przyniosła nauka. Wizja bezwolnych ludzi-maszyn sterowanych komputerowo przez znający myśli system (państwa totalitarnego lub wszechpotężnych korporacji) jest jak najbardziej realna (przynajmniej technicznie rzecz biorąc) i to w dość niedalekiej perspektywie czasowej. Dlatego należy podjąć wszelki możliwy wysiłek, by stworzyć mechanizmy zabezpieczające przed jej spełnieniem.

Jedną z koncepcji, która jest w ostatnich latach szczególnie w tym kontekście rozwijana, jest problematyka tzw. neuropraw (neurorights). W tym zakresie powstała już obszerna literatura naukowa, publikowane są raporty na poziomie europejskim[1] i – co chyba szczególnie istotne - niektóre kraje wprowadziły już pewne regulacje w tym zakresie. Neurorights Foundation[2] promuje tezę, że konieczne jest wprowadzenie takich praw (jako nowych praw człowieka). Nie jest moim zadaniem omawianie tych zagadnień, bo wymagałaby to obszernego opracowania monograficznego. Nie będę również koncentrował się na chyba dość jałowym sporze o to, czy neuroprawa powinny być sformułowane jako oddzielne prawa człowieka, czy też po prostu wywiedzione z już istniejących. Chciałbym zwrócić uwagę jedynie na znaczenie tych zagadnień w perspektywie cyborgizacji.

Wyjść trzeba od spostrzeżenia, że cyborgizacja - łączenie człowieka z maszyną - może wiązać się również (a może w dłuższej perspektywie przede wszystkim) z różnego rodzaju interfejsami neuronowymi, które będą umożliwiać bezpośredni przesył danych między mózgiem a maszyną, pozwalając na szybkie przekazywanie myśli, wspomnień czy emocji, zbieranie danych o działaniu systemu nerwowego a nawet modyfikowaniu tego działania.  Zidentyfikowanie zagrożeń z tym związanych i bezwzględnych praw człowieka chroniących jego autonomię, godność i wolność w tej perspektywie jest zatem szczególnie istotne.

Wydaje się oczywiste, że konieczne jest wprowadzenie (lub wyinterpretowanie) pewnych rudymentarnych w tym kontekście praw. Nie ma wątpliwości, że dane neuronalne powinny być traktowane jako najbardziej chronione informacje osobiste, a ich przechwytywanie czy analiza bez zgody użytkownika powinny być zabronione[3]. Uważam, że nie powinno być w tym wypadku żadnych wyjątków: nie jest wystarczające, by możliwe było zastąpienie zgody osoby, zgodą sądu. Nie sądzę, by warto było poświęcić tę ostatnią redutę człowieczeństwa w imię walki z przestępczością, potrzebami obronnymi państwa czy jakąkolwiek inna okolicznością. Nie wystarcza zapewnienie proporcjonalności w wyważaniu różnych wartości i okoliczności - utrata prawa do własnego umysłu i jego tajemnic jest równoznaczna z utratą człowieczeństwa, więc nic nie może być ważniejsze. Inną kwestią jest jednak to, w jaki sposób zapewnić, by system (technologiczny, społeczny, prawny) nie wymuszał udzielania zgody na korzystanie z danych neuronalnych.

Jest zupełnie jasne, że prawo powinno wprowadzić zakaz używania neurotechnologii do manipulowania umysłem, np. poprzez wprowadzanie fałszywych wspomnień, zmianę emocji czy manipulację decyzjami.  To z kolei prowadzi do oczywistego wniosku, że konieczna jest pełna kontrola państwa nad urządzeniami tego rodzaju. Każde oprogramowanie współdziałające z mózgiem powinno przechodzić rygorystyczne testy bezpieczeństwa i być certyfikowane przez niezależne instytucje.  Z uwagi na wagę zagadnienia szczególną uwagę należy przy tym poświęcić zabezpieczeniom. Konieczne będzie stosowanie zaawansowanych systemów kryptograficznych. Każdy interfejs mózg-maszyna powinien być zabezpieczony, by zapewnić prywatność transmisji danych między mózgiem a urządzeniem, ochronę przed nieautoryzowanym dostępem z zewnątrz. Cyberbezpieczeństwo w tym zakresie musi wykluczyć wszelkie formy umysłowego hakingu[4].

Wnioski jakie płyną z tych dość fundamentalnych założeń mogą być ujęte w kategorię neuropraw. Ich katalog, treść i zakres są przedmiotem dyskusji[5]. Jak wspomniałem, nie ma chyba znaczenia, jak – od strony technicznoprawnej - zostanie to ujęte. Ważniejsze jest to, że sama świadomość zagrożeń zmusza do określonej refleksji prawniczej. Neuroprawa muszą być zidentyfikowane i uznane za niepodważalne. O jakie prawa chodzi? 

Po pierwsze, mowa jest o prawie do prywatności myśli (right to mental privacy). Chodzi   zapewnienie jednostce możliwości zachowania osobistej sfery mentalnej wolnej od nieuprawnionego wglądu zewnętrznego, zwłaszcza w kontekście szybko rozwijających się technologii neurobiologicznych (NT)[6]. Wskazuje się, że chodzi o „mentalną aktywność” jako całość, co oznacza, że nie chodzi już tylko o ochronę samych „myśli” jako świadomych treści, lecz także o wszelką aktywność mózgową, która może być ujawniona i przetwarzana przez zewnętrzne systemy technologiczne[7]. Zdaniem zwolenników wyraźnego sformułowania takiego prawa, dotychczasowe przepisy skupiają się głównie na danych zewnętrznych (np. dane biometryczne), tymczasem „dane mózgowe” są znacznie bardziej intymne. Przedmiotem ochrony jest neuronalne przetwarzanie informacji przez mózg[8], zarówno świadome, jak i podświadome procesy[9]. Kluczowe oczywiście jest pozostawienie każdemu decyzji co do tego, czy i w jakim zakresie pozwoli innym na wejście w jego świat mentalny.

Po drugie, wyróżnia się prawo do personalnej tożsamości (Right to personal identity) – zwane też w literaturze prawem do tożsamości mentalnej, integralności osobistej czy „poczucia ja” (mental identity, personal identity, mental integrity, agency, sense of self). Chodzi więc o ochronę wewnętrznej spójności mentalnej, psychicznej integralności, poczucia podmiotowości oraz decyzyjności. Kluczowym elementem tego prawa jest ochrona możliwości sprawowania kontroli nad własną sferą psychologiczną. Prawo to ma chronić psychologiczny wymiar jednostki, tak by tożsamość, osobowość, charakter i psychika nie mogły zostać naruszone ani zmienione w sposób niekontrolowany np. poprzez nieuprawniony dostęp do sygnałów neuronalnych i manipulacje bez świadomej zgody. Przetwarzanie danych neuronalnych (aktywności mózgowej) przez innych ma być warunkowane świadomą zgodą tego, czyjego aktywność jest przedmiotem przetwarzania. W ten sposób prawo do personalnej tożsamości staje się gwarancją ochrony przed technologicznymi ingerencjami, które mogłyby podważyć stabilność i autentyczność osobowości. Skoro NT mogą potencjalnie zmieniać cechy, poglądy czy zachowania, konieczne jest istnienie normy prawnej gwarantującej, że każdy zachowa zdolność do bycia sobą, wolnym od przymusowych przekształceń. Chodzi o to, by neurotechnologie nie stały się narzędziem kształtowania ludzkich wyborów w sposób pozbawiony wolnej woli – niezależnie od tego, czy jest to manipulacja subtelna, sugerująca zmiany nastroju, czy poważniejsza ingerencja w struktury mózgu odpowiedzialne za podejmowanie decyzji. Jest jasne, że w zakresy prawa do prywatności myśli i prawa do personalnej tożsamości częściowo pokrywają się.

Jako trzecie wyróżnia się prawa do wolnej woli (Right to free will), którego zakres również jest dość podobny. Prawo to opiera się na przekonaniu, że każdy człowiek powinien zachować kontrolę nad własnymi decyzjami, myślami i działaniami. Chodzi tu z jednej strony o wolność w podejmowaniu wyborów, a z drugiej – o ochronę przed zewnętrznymi ingerencjami, manipulacjami czy przymusem wynikającym z zastosowania NT. Jest to zatem prawo, które jest podobne czy nawet wynika z wcześniej omówionego prawa personalnej tożsamości. W praktyce obejmuje w szczególności autonomię decyzyjną, tj. zagwarantowanie, by człowiek mógł działać (wybierać, podejmować decyzje) zgodnie z własnymi preferencjami, wartościami i cechami osobowości, bez bezpośredniego, manipulacyjnego wpływu neurotechnologii. Za równie ważne można uznać unikanie przymusu „ulepszania”. W świecie, w którym NT mogą służyć do poprawy funkcji kognitywnych, rodzi się obawa, że może pojawić się presja na ciągłe doskonalenie siebie, by sprostać społecznym oczekiwaniom lub standardom efektywności. Prawo do wolnej woli ma więc chronić jednostkę przed naciskiem wzięcia udziału w tego typu „wyścigu zbrojeń” w sferze mentalnej. Kolejnym aspektem jest zagrożenie, że NT staną się dostępne tylko dla wybranych, np. osób zamożnych lub tych, którym pozwolą na to specjalne regulacje. Taka sytuacja mogłaby doprowadzić do powstania nowej formy nierówności społecznych. Prawo do wolnej woli ma zapewnić, że wybór korzystania z NT (lub rezygnacji z nich) pozostaje wolny od ekonomicznego czy społecznego przymusu. Aczkolwiek utopijność tak rozumianego prawa jest jaskrawa, trudno zaprzeczyć, że państwo powinno podjąć jakieś działania przynajmniej zmierzające w kierunku, o którym mowa. Bez tego wolna wola jednostki stanie się iluzoryczna – formalnie można będzie z udoskonaleń zrezygnować, ale faktycznie odmawiając NT, można zostać w tyle, tracąc szanse na rozwój zawodowy czy społeczne uznanie. Prawo do wolnej woli w założeniu ma temu przeciwdziałać. Realne szanse na realizację tak rozumianego prawa są jednak niewielkie. Oczywiście mechanizmy antydyskryminacyjne w pewnym zakresie mogą opóźniać a nawet w jakiś obszarach powstrzymywać efekt, o którym mowa. W dłużej perspektywie nieuniknione stanie się (i to chyba bez względu na tworzone w gabinetach profesorów prawa koncepcje takich czy innych praw) to, że skoro ci, który korzystać będą z określonych technologii (w tym NT, ale też modyfikacji genetycznych, nanorobotów i innych) będą zdrowsi, silniejsi, piękniejsi, mądrzejsi a przez to zamożniejsi, to inni (bardziej chorzy, słabsi, brzydsi, głupsi i biedniejsi) będą tym pierwszym chcieli dorównać. Prawo do tego, by jednak nie musieli tego robić, w ostateczności będzie zabezpieczać ich nędzę. Prawo, które ma w założeniu twórców zagwarantować, że wybór technologii jest realnym wyborem, a nie decyzją w warunkach społeczno-ekonomicznego przymusu, będzie prawem wyboru życia jak eremita w świecie podróży międzyplanetarnych. Zapewne będą tacy, których to zadowoli, ale istotnego wpływu na społeczeństwo i historię nie będzie to miało.

Z opisanym prawem do wolnej woli łączy się zatem kolejne: prawo do równego dostępu do mentalnego „ulepszenia” (Right to equal access to mental augmentation). Początkowo wspominano o tym raczej od strony negatywnej, tzn. poprzez wskazywanie obszarów, w których należałoby zakazać ulepszeń[10]. Ostatnio mówi się już szerzej o sprawiedliwym dostępnie do mentalnego ulepszenia.  Prawo to ma na celu zapewnienie, że dobrodziejstwa wynikające z mentalnego ulepszenia będą rozdzielane w społeczeństwie w sposób sprawiedliwy. Oznacza to, że gdy NT staną się powszechne i będą mogły poprawiać pamięć, koncentrację, szybkość myślenia czy zdolności sensoryczne, nie powinny być zarezerwowane wyłącznie dla najbogatszych, najbardziej uprzywilejowanych grup czy posiadaczy określonych wpływów społecznych. Osoby korzystające z NT mogłyby osiągnąć przewagę w edukacji, na rynku pracy lub w innych aspektach życia publicznego, tworząc nową przepaść między „ulepszonymi” a „nieulepszonymi”. Takie zjawisko rodziłoby obawy o pojawienie się „neuroelity”, która opierając się na dostępnych tylko dla niej neurotechnologiach, zwiększałaby swoje wpływy i nierówności społeczne. Celem prawa do równego dostępu do mentalnego ulepszenia jest więc zapewnienie, że korzyści płynące z NT będą dystrybuowane w sposób, który nie pogłębia istniejących nierówności społeczno-ekonomicznych. Można to rozumieć jako postulat, by społeczeństwo i ustawodawstwo zadbały o mechanizmy regulujące dostępność tych technologii dla warstw mniej zamożnych. Nietrudno zauważyć, że realizacja takiego prawa może być realna, o ile wskazane technologie będą niedrogie – wtedy zapewnienie takiej możliwości dla dużej części społeczeństwa nie będzie większym problemem (podobnie jak to się ma z internetem czy szczepionkami). Jeśli technologie te będą drogie – ich upowszechnienie jest raczej utopijne. W obu wypadkach realizacja prawa do równego dostępu stanie w oczywistej sprzeczności z realizacją wcześniej opisanego prawa do wolnej woli. Jeśli NT będą tanie i powszechnie dostępne jak internet i będą dawać silne przewagi, czy ci, którzy nie będą chcieli z tego skorzystać, będą rzeczywiście mogli oczekiwać realnego wsparcia i ochrony ich postawy? Zauważmy, że dzisiaj ci, którzy nie chcą korzystać z internetu czy ze zdobyczy współczesnej medycyny również - co do zasady – nie muszą tego robić. Jednak państwo nie wspiera tych osób, nie uznaje za dyskryminację tego, że oczekuje się posiadania konta bankowego, adresu poczty internetowej i umiejętności pracy w środowisku Windows.  Dostęp do ulepszeń umysłowych może stworzyć całkiem nowy rodzaj nierówności. Podczas gdy tradycyjne podziały społeczne (klasa, rasa, płeć) już stanowią istotny problem, nierówny dostęp do NT może zwiększyć przepaści, wprowadzając „mentalny klasizm” – podział na tych, którzy mają lepsze zdolności umysłowe dzięki NT, i tych, którzy nie mają do nich dostępu. Nie wydaje mi się, by zaradzenie temu było w ogóle możliwe a deklarowanie tak czy raczej rozumianej równości nie da się zrealizować w praktyce.

Kolejnym prawem ma być ochrony przed stronniczością algorytmiczną (Right to protection from algorithmic bias)[11]. Formuła ta w istocie mówi to samo, co w kontekście wszystkich systemów AI, tzn. że algorytmy, stosowane do analizy danych mózgowych i wspomagania procesu decyzyjnego, mogą nieświadomie reprodukować i wzmacniać istniejące stereotypy i nierówności. Głównym założeniem tego prawa jest zapobieganie sytuacjom, w których technologie neuroinżynieryjne faworyzują określone grupy społeczne bądź dyskryminują inne.

Niektóre ze wskazanych neuropraw są oczywiste i powinny być niewątpliwie wprowadzone lub zrealizowane w ustawodawstwie szczególnym. Dotyczy to wszelkich ingerencji i manipulacji w umysł, jak również naruszenia prywatności poprzez gromadzenie czy analizowanie a tym bardziej wpływanie na strukturę pracy mózgu. Tak też się dzieje, czego przykładem mogą być prekursorskie rozwiązania prawne chilijskie i kilku innych państw. Inne wymienione prawa są jednak zupełnie utopijne. Zapewnienie równego dostępu do tych technologii z równoczesnym zagwarantowaniem praw tym, którzy z nich korzystać nie będą chcieli, przy zapewnieniu, by nie powstały neuroelity to postulaty chyba nawet teoretycznie niemożliwe do równoczesnego zrealizowania. Postulaty wyrażone jako takie neuroprawa są raczej wizjami społeczeństwa idealnego a nie normami, które mogą w realnym świecie być realizowane. Będzie przecież dokładnie odwrotnie niż wynikać ma z tych “praw”: każda technologianiczna nowinka, która da przewagi (np. w edukacji, nauce, polityce czy biznesie) spowoduje, że ci, którzy z tych nowinek nie będą chcieli lub mogli skorzystać będą na straconej pozycji. Jeśli nawet zagwarantuje się każdemu dostęp do każdej możliwej technologii to nic nie będzie można poradzić na to, że niektórzy nie będą chcieli z tych możliwości korzystać. Nie da się w takim wypadku zbudować idealnego świata, w którym osoby ulepszone i nieulepszone będą miały równy dostęp do zasobów (np. wysokich stanowisk w korporacjach), skoro będą w każdym liczącym się parametrze słabsze niż ulepszeni. Podobnie nie da się zapewnić równości dla krótkowidzów, którzy nie chcą lub nie mogą korzystać z okularów czy soczewek kontaktowych. 

Ilość zagrożeń w kontekście nieustającej cyborgizacji jest większa niż mogłoby się wydawać. Naeuroprawa w kontekście ochrony prywatności, wolnej woli czy autonomii są kluczowe, ale chyba nie opisują całości zagadnień. Cyborgizacja oznacza przecież nie tylko połączenie człowieka z maszyną, ale także ludzkości jako całości z systemem komputerowym jako całości. W dłużej perspektywie przecież należy widzieć nie rozporoszone połączenia, ale cała organiczno-cyfrową sieć, w której współpracują ludzkie umysły i maszyny. W takim kontekście widać wyraźnie, że nie chodzi jedynie o skonkretyzowane działanie maszyny na człowieka, ale o działanie całego systemu, który może być „zanieczyszczony”. Z jednej strony integracja z maszynami może przynieść nieograniczony dostęp do wiedzy i natychmiastowy transfer informacji, a z drugiej – pojawia się ryzyko, że dane „wpuszczane” do zbiorowej pamięci zostaną zmanipulowane, sfałszowane lub wręcz zaprojektowane tak, by kształtować percepcję rzeczywistości w określony sposób. W dobie tradycyjnych mediów i internetu naruszenie prawdy w przestrzeni publicznej jest niebezpieczne, ale mimo wszystko ograniczone do sfery słowa lub obrazu, które człowiek może świadomie zakwestionować (chociaż jest z tym coraz większy problem). Skoro informacje o świecie będą krążyć w globalnej sieci umysłów i wspierających je sztucznych inteligencjach, to każdy błąd lub celowe przekłamanie ma potencjał, by rozprzestrzenić się i wniknąć w świadomość milionów ludzi. W konsekwencji może dojść do powstania masowych iluzji, które będą trudne do weryfikacji. To trochę tak, jakby w zbiorowym umyśle społeczeństwa dokonało się wszczepienie fałszywego wspomnienia, przed którym trudno się bronić, gdy stało się ono „własnością” zarówno ludzi, jak i współdziałających z nimi maszyn. Halucynujący system generatywnej AI będzie prowadził do halucynacji całej ludzkości.

Neuroprawa, rozumiane jako zbiór norm prawnych i etycznych regulujących relacje między mózgiem a maszyną, muszą więc uwzględniać zabezpieczenia przed zaszczepianiem i powielaniem manipulacji wprost w ludzkiej świadomości nie tylko (co przecież oczywiste) indywidualnej, ale również zbiorowej. Chociaż dzisiaj wydaje się to małe prawdopodobne, być może powstaną międzynarodowe agencje (np. na poziomie unijnym) weryfikujące autentyczność danych, zanim te zostaną dopuszczone do obiegu w sieciach neuroinformatycznych. Być może potrzebne będzie wprowadzenie zaawansowanych protokołów szyfrujących i „certyfikatów pamięci”, które pozwolą ustalić, czy dana informacja pochodzi ze sprawdzonego, wiarygodnego źródła.

Cyborgizacja w tym kontekście oznacza, że układ nerwowy splata się z technologią, a ludzie - cyborgi zyskują dostęp do ogromnej mocy obliczeniowej. W nowym świecie interfejsów komputer-mózg konieczne będzie zapewnienie czystości sieci neuronowej i integralności przechowywanych w niej wspomnień. O ile w dawnych czasach wystarczały kary za dezinformację czy fałszowanie dokumentów, o tyle przyszłe przepisy prawne będą musiały objąć swoim zasięgiem procesy, jak bezpośrednia implantacja myśli lub indukowanie wspomnień.

Z taką rzeczywistością łączy się też dylemat moralny (a w praktyce – polityczny): czy należy całkowicie chronić człowieka przed dostępem do niezweryfikowanych informacji, czy może każdy powinien mieć prawo do dowolnej eksploracji „danych świadomości”, nawet na własne ryzyko?[12] Być może wprowadzi się zasadę dobrowolnych „kwarantann umysłowych”, kiedy to osoba narażona na kontakt z niepewnym źródłem danych poddaje się czasowemu odcięciu od sieci, aby specjaliści mogli sprawdzić, czy nie doszło do zainfekowania jej pamięci.
Zanieczyszczanie zbiorowej pamięci w epoce cyborgizacji to jednak przede wszystkim  ogromne pole do nadużyć ze strony organów władzy czy korporacji kontrolujących sieci neuronowe. Kto zdecyduje o tym, które treści są „prawdziwe” i „właściwe”? Czy istnieje ryzyko masowej cenzury zakodowanej w samych interfejsach, z pominięciem świadomej woli człowieka? Prawo przyszłości będzie musiało znaleźć subtelny balans między koniecznością ochrony społecznej świadomości a pragnieniem zachowania wolności poszczególnych jednostek, które mogą chcieć decydować o tym, co wchodzi do ich umysłów. Możliwe, że rola niezależnych instytucji monitorujących przepływ danych stanie się kluczowa, a nowe mechanizmy kontroli społecznej pojawią się równie szybko, co kolejne wynalazki.

Już dziś obserwujemy, jak blisko współdziała umysł z technologią, choćby poprzez nieustanny kontakt ze smartfonami i algorytmami mediów społecznościowych. Technologia już teraz wpływa na ludzki sposób myślenia, kształtując preferencje i poglądy, a nadmiar informacji, często utrudnia weryfikację ich wiarygodności. Jeśli pomnożymy ten efekt przez zaawansowane interfejsy mózg-komputer i możliwość natychmiastowego transferu myśli czy wspomnień, otrzymujemy wzór na to, jak potencjalnie może wyglądać wprowadzanie niepewnych treści prosto do umysłów ludzi. W obecnym systemie społecznościowym manipulacje dokonywane są pośrednio, za pomocą odpowiednio zaprojektowanych komunikatów marketingowych, politycznych czy propagandowych. W przyszłości będą mogły się odbywać niemal niezauważenie, poprzez bezpośrednie „wszczepianie” informacji wprost do świadomości. Dzisiejsze „bańki informacyjne” staną się wówczas „bańkami percepcji”, gdy doświadczanie świata w znacznej mierze będzie filtrowane i przetwarzane przez systemy wplecione w samą strukturę naszych myśli. Jest pewne, że kiedy interfejsy mózg-komputer staną się codziennością, pojawi się poważne ryzyko, że sztuczna inteligencja zacznie wpływać na ludzi na znacznie głębszym niż dzisiaj, neurologicznym poziomie.

Jak wspomniałem, w 2021 r. Chile stało się pierwszym krajem na świecie, który wprowadził do konstytucji kwestię neuropraw. Do artykułu 19 „Constitución Política de la República” dodano następujący ustęp:

„Rozwój naukowy i technologiczny będzie służył ludziom i będzie prowadzony z poszanowaniem życia oraz integralności fizycznej i psychicznej. Prawo reguluje wymagania, warunki i ograniczenia dotyczące jego stosowania w odniesieniu do ludzi, a w szczególności chroni aktywność mózgu, a także informacje z niego pochodzące” .

Podobne regulacje wprowadził np. brazylijski stan Rio Grande do Sul włączył prawa neuronowe do swojej konstytucji w grudniu 2023 r. Kraje Ameryki Południowej zdecydowanie przodują w tym zakresie (różne regulacje wprowadziły m.in. także m.in. Meksyk[13]). W USA to Kolorado jako pierwszy stan wprowadził przepisy dotyczące ochrony danych neuroidalnych  Colorado Privacy Act z 2024 r.[14].

Przepis podobny do chilijskiego winien być wprowadzony do polskiej Konstytucji. Jeszcze istotniejsze byłoby przyjęcie podobnej deklaracji na poziomie unijnym. Prace w tym zakresie powinny być pilnie podjęte. Bez względu na to, czy chcemy kwestię neuropraw analizować pod kątem praw człowieka, czy może z perspektywy ochrony danych osobowych konieczność wyraźnego opisania i zrozumienia czym są dane neuroidalne i jakie niebezpieczeństwa wiążą się z rozwojem technologii badania i wsparcia umysłu stanowi jedno z poważniejszych wyzwań dla legislacji. Choć sceptyczny jestem co do tego, czy uda się w dłużej perspektywie zapewnić ochronę neuropraw, wprowadzenie ogólnej, kierunkowej normy ustrojowej, mogłoby stanowić istotny sygnał dla regulacji szczegółowych. Należy rozwinąć mechanizmy kontroli nad tym, jak algorytmy wchodzą w interakcję z naszym umysłem, oraz stworzyć maksymalnie mocny system ochrony przed nadużyciami.





PRZYPISY
[1] European Parliament. Panel for the Future of Science and Technology, The protection of mental privacy in the area of neuroscience. Societal, legal and ethical challenges, July 2024, https://www.europarl.europa.eu/stoa/en/document/EPRS_STU(2024)757807
[2] https://neurorightsfoundation.org/
[3] Pionierskim krokiem w kierunku praw neuronowych była prace R.G.Boire, On cognitive liberty, J. Cogn. Liberties 2, 7–22 oraz W. Sententia, Neuroethical considerations: cognitive liberty andconverging technologies for improving human cognition, Ann. N. Y. Acad. Sci.1013, 221–228, przy czym była to konsekwencja wcześniej prowadzonego dyskursu dotyczącego neuroetyki.
[4] Szczegółową analizę tego zagadnienia zawiera raport Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies napisany (autorzy: Jared Genser, Stephen Damianos, and Rafael Yuste), April 2024, https://www.perseus-strategies.com/wp-content/uploads/2024/04/FINAL_Consumer_Neurotechnology_Report_Neurorights_Foundation_April-1.pdf
[5] Po raz pierwszy pojęcie neuropraw (neurorights) pojawiło się w pracy M. Ienca, R. Andorno, Towards new human rights in the age of neuroscience and neurotechnology. Life Sciences, Society and Policy, 13(1), 5. https://doi.org/10.1186/s40504-017-0050-1. Obecnie nie ma pełnej zgodności co do pojęciowo-normatywnych granic i terminologii praw neuronów. Istnieją rozbieżności w odniesieniu do sposobu, w jaki prawa te są interpretowane, formułowane i wyrażane pojęciowo (por. analizę doktryny w M. Ienca, On Neurorights, Frontiers in Human Neuroscience 15:701258, 2001, DOI: 10.3389/fnhum.2021.701258.
[6] M. Ienca, R. Andorno, Towards, s. 14; R. Yuste, R. Genser, S. Herrmann, It’s time for neuro-rights, Horizons 2021, 18, 154–164.
[7] Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies  (autorzy: Jared Genser, Stephen Damianos, and Rafael Yuste), April 2024, https://www.perseus-strategies.com/wp-content/uploads/2024/04/FINAL_Consumer_Neurotechnology_Report_Neurorights_Foundation_April-1.pdf
[8] M. Ienca, R. Andorno, Towards, s. 14.
[9] R. Yuste, T. de la Quadra-Salcedo, Neuro-Rights and New Charts of Digital Rights: A Dialogue
Beyond the Limits of the Law, Indiana Journal of Global Legal Studies, 2023, 30(1), 15–37.
https://doi.org/10.2979/gls.2023.a886161, s. 23.
[10] R. Yuste, S. Goering, B. Arcas, i inni, Four ethical priorities for neurotechnologies and AI, Nature 551, 159–163 (2017). https://doi.org/10.1038/551159a
[11] R. Yuste, J. Genser, S. Herrmann (2021). It’s time for neuro-rights, Horizons, 18, s. 160.
[12] Na ten dylemat wskazują m.in. S. Inglese and A. Lavazza, What Should We Do With People Who Cannot or Do Not Want to Be Protected From Neurotechnological Threats? Front. Hum. Neurosci. 15:703092, DOI: 10.3389/fnhum.2021.703092
[13] https://www.infocdmx.org.mx/doctos/2022/Carta_DDigitales.pdf
[14] https://coag.gov/resources/colorado-privacy-act/