Nadchodzące nowe europejskie regulacje prawne dotyczące ogólnopojętej ochrony prywatności, bezpośrednio uderzą w rozwój Sztucznej Inteligencji. Mam tu na myśli General Data Protection Regulation (GDPR), którego efekty wszyscy odczujemy już w maju 2018 roku. O samej inicjatywie można powiedzieć, że jest największym i najważniejszym projektem legislacyjnym regulującym prywatność w ostatnich 20 latach.

Projekt powstawał wiele lat. Pierwsze prace rozpoczęto jeszcze w 2012 roku. Teoretycznie ma przynieść same pozytywne wartości dla obywateli Unii Europejskiej – głównie poprzez ujednolicenie procedur ochrony danych osobowych, we wszystkich firmach działających na terenie Europy, poza oczywiście Wielką Brytanią, co, o ironio, może okazać się dla niej sporą przewagą konkurencyjną. Warto odnotować, że Wielka Brytanie nie chciała zgodzić się na wiele zapisów w GPDR jeszcze przed Brexitem.

Legislator twierdzi, że zmiany są bardzo pozytywne i w zasadzie nie ma tu żadnych wad prawnych, projekt jest bardzo dopracowany – jak zawsze. Firmy mają zaoszczędzić krocie na wdrożeniu jednolitych procedur na niemal całym kontynencie, a obywatele będą spać spokojnie, bo nikt nie użyje ich danych prywatnych i osobistych do niecnych celów. Tak? Dlaczego śmiem w to wątpić?

Czym jest General Data Protection Regulation (GDPR)

W skrócie – GPDR zmusza wszystkie firmy oferujące produkt lub usługę skierowaną do europejskiego obywatela do przestrzegania ostrych zasad ochrony danych osobowych. Bez znaczenia jest tu miejsce fizycznego prowadzenia biznesu, a więc także samej siedziby. Chcesz prowadzić biznes w UE – dostosuj się, a jak nie, to milionowe kary zaleją europejskie kieszenie. Moją wynieść nawet 4% globalnych przychodów, co w przypadku takich firm jak Google, czy Facebook, będzie oznaczać grube miliardy dolarów. Możecie sobie wyobrazić, co w tej chwili dzieje się w departamentach prawnych amerykańskich gigantów internetowych. Problem jest bardzo poważny i bynajmniej, nie chodzi tu tylko o ochronę danych osobowych, bo ona wydaje się uzasadniona.

GPDR odnosi się do wszystkich danych osobowych, określonych jako dane umożliwiające identyfikację danej osoby – bezpośrednio i pośrednio. To właśnie stwarza bardzo poważne zagrożenie do rozwoju wszelkiej maści algorytmów maszynowego uczenia, czy ogólnopojętej Sztucznej Inteligencji. Coś, co ma odmienić nasz świat dostaje potężnego kopa od jednego z najważniejszych rynków na świecie.

W tym miejscu przypomina mi się historia początków angielskiego przemysłu motoryzacyjnego, którą nie da się inaczej nazwać niż samobójstwem.

W drugiej połowie lat osiemdziesiątych XIX wieku samochody zaczęły pojawiać się w Europie Zachodniej. Początkowo były napędzane silnikami parowymi, a później różnymi paliwami ciekłymi. Oczywiście stanowiły duże zagrożenie dla istniejących gałęzi biznesu transportowego. Co zrobiła Wielka Brytania?

Akt Lokomotywowego kretynizmu

Wprowadziła niezwykle niszczycielski Akt Lokomotywowy, znany szczerzej jako „Ustawa o Czerwonej Fladze”. Akt dramatycznie ograniczał możliwości automobili poruszających się po publicznych drogach. W intencji ochrony biednych obywateli wprowadzono ograniczenie w prędkości, do której mógł się taki pojazd rozpędzać (konkretnie do 2 mil na godzinę w terenie zabudowanym, a więc nierzadko wolniej, niż przeciętny pieszy), do tego musiał być obsługiwany przez – uwaga – minimum trzech operatorów: kierowcę, palacza (lol!), oraz – to najlepsze – człowieka maszerującego przed pojazdem, wymachującego czerwonymi flagami (w roli współczesnych kierunkowskazów, świateł i klaksonu). Samochód był wspaniałym wynalazkiem, ale tylko wtedy, kiedy nie mógł zagrażać kolei i publicznemu transportowi opartemu o konie i powozy. Nie będzie dla Ciebie niespodzianką, kiedy napiszę, że za Aktem Lokomotywowym stały właśnie lobbiści z tych firm.

Jak to się przyczyniło do rozwoju rewolucji samochodowej? Oczywiście w żaden sposób. Korzyści nie ma – są tylko ofiary, a wśród nich brytyjski przemysł samochodowy. Po dobrym początku w branży automobili, na wiele lat wypadła z biznesu – ku uciesze swojej konkurencji, co gorsza, historia po kilkudziesięciu latach miała się powtórzyć.

Druga Wojna Światowa całkowicie zniszczyła niemiecki biznes samochodowy. Pojawiła się historyczna szansa na powrót Wielkiej Brytanii do gry. Wykorzystali ją wspaniale. Niestety, nie na długo, bo prawotwórcze procesy znów zostały obudzone. Z największego konkurenta niemieckich aut dla ludu, stali się w zasadzie podwykonawcą. Kultowe Mini produkowane jest dla BMW, a Bentley należy do Volkswagena. Jeszcze 50 lat temu, w czasie kiedy Mini było u swojego szczytu, dzisiejsza sytuacja była po prostu niewyobrażalna.

Za tę epicką porażkę znowu odpowiadają legislatorzy, którzy swoimi ustawami chcieli chronić zwykłych ludzi, a konkretnie pracowników i ich Związki Zawodowe. Kiedy w Niemczech pracownicy budowali bliskie relacje z biznesem i wspomagali pracę fabryk, brytyjskie związki zawodowe, dzień w dzień, toczyły bitwy, a fabryki stały się prawdziwym wojennym frontem. Po kultowych samochodach pozostały tylko marki i wspomnienia.

Tak już niestety jest, kiedy innowacyjne branże zaczynają łapać prawdziwy wiatr w żagle i przechodzą z etapu lokalnej ciekawostki w ważną siłę kształtującą rozwój, legislator zaczyna martwić się o obywateli i wymyśla nowe zasady. Znajdą każdy powód, każdą przyczynę, każdą możliwość, żeby tylko „to nowe” natychmiast powstrzymać. Tak było zawsze i tak niestety jest i dzisiaj. Problem w tym, że to się zawsze źle kończy.

GPDR to nowa „ustawa o czerwonej fladze”?

W rozporządzeniu GPRD istnieją cztery fundamentalne obszary, które z jednej strony wnoszą dużo dobrego w obszar ochrony prywatności, ale jednocześnie utrudniają trenowanie AI na danych publicznych.

Jawna zgoda.

Firmy będą musiały prosić swoich użytkowników o zgodę na przetwarzanie danych, do tego w bardzo prostych słowach, bez zagrzebywania zgód w zawiłych regulaminach i warunkach prawnych. Dobrze? Niby tak, ale…

Stwarza to wiele wyzwań, zwłaszcza w obszarze tzw. asystentów głosowych, czyli nowego wcielenia AI, mającego realnie odmienić nasz sposób komunikowania się z aplikacjami i cyfrowym światem. Twój głos będzie teraz uważany za dane osobiste, dlatego urządzenia nasłuchujące będą musiały prosić wszystkich obecnych w pokoju o pozwolenie na wysłanie danych do chmury. Wyobraź sobie koszmar piątkowej kolacji ze znajomymi, kiedy Google Home będzie musiało wszystkich obecnych poprosić o pozwolenie na przetwarzanie danych głosowych. Jedynym praktycznym sposobem na ominięcie tego problemu będzie przeniesienie przetwarzania głosu do urządzenia, co w prosty sposób ogranicza rozwój tej dziedziny (brak danych do trenowania AI).

Prawo bycia zapomnianym.

To oznacza, że każdy, kto zażąda usunięcia swoich danych, będzie musiał zostać wysłuchany W przypadku kont w różnych serwisach internetowych, sprawa jest jasna. Ale co z danymi, które zostały wykorzystane do szkolenia AI? Czy one także będą musiały być usunięte? Ktoś może się przyczepić, że jego dane osobowe są nadal obecne w postaci węzłów wejściowych w sieci neuronowej i według niego, nadal nie został w pełni zapomniany. I oczywiście będzie miał rację.  

Przenośność danych.

To jest bardzo przyjemna zmiana. Oznacza, że każdy europejczyk będzie mógł uzyskać dostęp do wszystkich swoich danych, które posiada usługodawca, oraz zażądać przekazania ich dowolnemu innemu podmiotowi. To oznacza, że każdy internetowy wydawca będzie musiał stworzyć specjalne API, czytelne dla innych urządzeń, ponieważ procedura przeniesienia ma być zautomatyzowana. Podobnie, jak dzisiaj z numerem telefonu komórkowego, tak samo będziesz mógł w przyszłości przenieść swoje konto z Facebooka, na inny portal społecznościowy, do tego, ze wszystkimi danymi. Ma to przełamać dzisiejsze blokady mentalne i fizyczne, które przyklejają nas do konkretnych dostawców i trudno sobie w ogóle wyobrazić jakąkolwiek konkurencję w tym obszarze.

Jednocześnie otwiera to potencjalny eksodus w przypadku, kiedy jakiejś firmie coś pójdzie nie tak. Stracą przez to ogromne ilości danych, na których dzisiaj trenują swoje AI. Teoretycznie te „dobre zyskają”. Jako wydawca serwisu społecznościowego, trudno mi sobie wyobrazić sytuację, w której jakiś użytkownik zażąda przeniesienia swojego konta na inny, konkurencyjny serwis. Technicznie nie jest to dzisiaj nawet możliwe.

Transparentność algorytmów.

To bardzo ciekawy zapis. Daje każdemu Europejczykowi prawo do wglądu w sposób działania algorytmu, który w automatyczny sposób przetwarza jego dane i podejmuje decyzje. Logika stojąca za tym zapisem zabezpiecza użytkowników przed potencjalną dyskryminacją i uprzedzeniami, dając im bezpośrednią możliwość obrony swoich racji przed sądem. Problem jednak w tym, że kiedy mocno uprzedzeni ludzie do „przetwarzania ich danych”, dowiedzą się, jak i co jest przetwarzane, wpadną w panikę. Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii, a my magii się boimy. Paranoiczny strach przed „śledzeniem” doprowadzić może do znaczącego spowolnienia w rozwoju bardzo wielu usług, do których jedyna droga prowadzi przez zaawansowaną analizę naszych danych i zachowań. Deep Learning z zasady musi przetwarzać dane, które w logiczny sposób wydają się zbędne i odkrywać w nich ukryte powiązania i wzorce.

Wielu naukowców ciężko pracuje nad wyjaśnieniem, w jaki sposób pracują sieci neuronowe i jak podejmują decyzje. Będą musieli, w sposób zrozumiały i zachęcający, przekonać użytkowników do pozostawienia swoich danych. Trudno mi jednak sobie wyobrazić, że przysłowiowego „Kowalskiego” to przekona. Wręcz przeciwnie. To może całkowicie zablokować rozwój AI w takich obszarach jak medycyna, czy prawo.

Dobrze to, czy źle? Ambiwalentnie.

Podczas, gdy powyższe przepisy z pewnością wprowadzają wiele nowych problemów dla twórców pracujących nad rozwojem AI, to trudno nie dostrzec, że jednocześnie otwierają drogę do powstawania nowych lokalnych startupów. To trochę, jak „cyfrowy akt antymonopolowy” i z tej perspektywy bardzo mi się podoba. Poprzez ochronę danych osobowych w praktyce mocno ogranicza możliwości działania amerykańskich monopolistów.

Te zdania zapewne zabrzmiały bardzo optymistycznie. Z czym więc mam problem? Znając historię cywilizacyjnej innowacji wiem, że każda tego typu ingerencja, która zawsze w swoich początkach wygląda na coś dobrego, potrzebnego, i wręcz koniecznego – w dłużej perspektywie czasu okazuje się być śmiertelnym zagrożeniem. Nie możemy jednocześnie dążyć do technologicznej jedności i w tym samym czasie zabijać prawem przepływ danych. Mam wątpliwość, czy prywatność i jej ochrona jest tym, co w przyszłości będzie aż tak wielką wartością. Zresztą, wystarczy poświęcić chwilę na postudiowanie historii prywatności, żeby sobie uświadomić, że to stosunkowo nowy wynalazek i wcale niekoniecznie pozytywny (ze społecznej perspektywy).

W czasie tworzenia brytyjskiej ustawy „Czerwonej Flagi”, rząd chciał ochronić swoje lokalne firmy, które, bez wątpienia, w swoich czasach odgrywały bardzo ważne role. Mam wrażenie, że europejski legislator robi dzisiaj dokładnie to samo, tylko w znacznie większej skali. Chce ochronić obywateli i dać nowe szanse lokalnemu biznesowi w walce z galopującym postępem wytworzonym przez amerykańskie firmy.

W krótkiej perspektywie, nowe prawo, wyda się bardzo korzystne. W długiej – całkowicie wykluczy europejczyków z wyścigu o AI – z wiecznym życiem, autonomicznymi latającymi pojazdami, u boku. Jeżeli my nie jesteśmy zainteresowani tym kierunkiem rozwoju, to na świecie są już inni kandydaci, czekający obsesyjnie na swoją kolejkę.

Innowacja ma to do siebie, że nie można jej powstrzymać. Zmieniają się tylko jej kreatorzy.

Historia uczy, że najważniejsze wynalazki przychodzą w czasach, kiedy prawo im nie przeszkadza. Internet nie rozwinąłby się w tak spektakularny sposób, gdyby nie to, że był całkowicie wyjęty spod działania archaicznego prawa. Jest jeszcze zbyt wcześnie, żeby wylewać młodą AI z kąpielą.

Podobał Ci się ten artykuł? Singularity poszukuje osoby/firmy, która swoim mecenatem i finansowaniem pomoże w jego rozwoju. Jeżeli jesteś zainteresowany współpracą to przeczytaj manifest, a następnie kliknij w „Kontakt” i wyślij do mnie wiadomość.