Название | 21 lekcji na XXI wiek |
---|---|
Автор произведения | Yuval Noah Harari |
Жанр | Документальная литература |
Серия | |
Издательство | Документальная литература |
Год выпуска | 0 |
isbn | 9788308067123 |
Tego typu problemy można jednak rozwiązać: wystarczy po prostu pozwolić algorytmowi zbierać na bieżąco dane na nasz temat. Będą one generowane podczas faktycznego oglądania filmów – nie trzeba już będzie polegać na naszych własnych samoocenach, których wiarygodność jest wątpliwa. Na początek algorytm może sprawdzić, jakie filmy obejrzeliśmy do końca, a które wyłączyliśmy w połowie. Nawet jeśli będziemy opowiadali wszem wobec i każdemu z osobna, że Przeminęło z wiatrem to najlepszy film, jaki kiedykolwiek nakręcono, to algorytm będzie wiedział, że nigdy nie obejrzeliśmy więcej niż pierwsze pół godziny i nigdy tak naprawdę nie widzieliśmy, jak płonie Atlanta.
Algorytm jednak może zajrzeć znacznie głębiej. Obecnie tworzy się oprogramowanie zdolne wykrywać ludzkie emocje na podstawie ruchu gałek ocznych i mięśni twarzy51. Wystarczy podpiąć do telewizora dobrą kamerę, a taki software będzie już wiedział, podczas których scen się śmialiśmy, które wywoływały w nas smutek, a które nas nudziły. Następnie podłączymy algorytm do czujników biometrycznych, dzięki czemu będzie wiedział, w jaki sposób poszczególne klatki filmu wpływają na nasze tętno, ciśnienie i aktywność mózgu. Na przykład gdy będziemy oglądać Pulp Fiction, algorytm może zauważyć, że scena gwałtu wywołuje w nas lekkie, niemal niedostrzegalne podniecenie seksualne, a gdy Vincent przypadkowo strzela Marvinowi w twarz, rozśmiesza nas to (choć jednocześnie czujemy się tym zawstydzeni), nie łapiemy z kolei tego żartu na temat Big Kahuna Burger – ale i tak się śmiejemy, żeby nie wyjść na głupków. Gdy człowiek śmieje się w sposób wymuszony, korzysta z innych obwodów mózgowych i innych mięśni niż wówczas, gdy śmieje się dlatego, że coś go naprawdę bawi. Ludzie zazwyczaj nie potrafią dostrzec tej różnicy. Ale czujnik biometryczny byłby tu bezbłędny52.
Słowo „telewizja” pochodzi od greckiego tele, oznaczającego ‘daleko’, oraz łacińskiego visio – ‘widzenie’. Pierwotnie miało to być urządzenie pozwalające nam widzieć z daleka. Niedługo jednak może ono sprawić, że to my b ę d z i e m y w i d z i a n i z daleka. Jak przewidywał George Orwell w swej książce Rok 1984: gdy my będziemy oglądali telewizję, ona będzie oglądała nas. Gdy już zapoznamy się z całą filmografią Tarantina, być może z czasem zapomnimy większość jego filmów. Ale Netflix albo Amazon, albo ktokolwiek inny, kto będzie właścicielem telewizyjnego algorytmu, będzie znał nasz typ osobowości i będzie umiał w odpowiedni sposób naciskać klawisze naszych emocji. Tego rodzaju dane pozwolą Netflixowi i Amazonowi niesamowicie precyzyjnie dobierać dla nas filmy, ale też umożliwią im podejmowanie za nas najważniejszych decyzji w życiu – na przykład jakie studia wybrać, gdzie pracować albo z kim wziąć ślub.
Oczywiście Amazon nie będzie cały czas bezbłędny. To niemożliwe. Algorytmy będą się ciągle myliły z powodu niewystarczających danych, wadliwego oprogramowania, mało precyzyjnego zdefiniowania celów i ogólnie z racji chaotycznej natury rzeczywistości53. Amazon jednak nie musi być doskonały. Wystarczy, że będzie po prostu lepszy statystycznie niż my, ludzie. A to nie jest takie trudne, ponieważ większość ludzi nie zna samych siebie zbyt dobrze i często popełnia straszliwe błędy, podejmując najważniejsze życiowe decyzje. Ludzie w większym nawet stopniu niż algorytmy boleśnie doświadczają skutków wynikających z posiadania niewystarczających danych, z błędów w oprogramowaniu (genetycznym i kulturowym), niejasnych definicji i chaosu życia.
Problemów, z którymi borykają się algorytmy, jest bardzo wiele, można by więc dojść do wniosku, że ludzie nigdy im nie zaufają. Długa lista tych kłopotów przypomina jednak trochę katalog wszystkich możliwych wad demokracji: również w tym wypadku chciałoby się powiedzieć, że nikt przy zdrowych zmysłach nie wybrałby takiego systemu. Wszystkim znane są słowa Winstona Churchilla, że demokracja jest najgorszym systemem politycznym na świecie, jeśli nie liczyć wszystkich innych. Słusznie czy nie, ludzie mogą dojść do tych samych wniosków na temat algorytmów opartych na big data: wiąże się z nimi cała masa problemów, ale nie mamy lepszego rozwiązania.
W miarę jak naukowcy będą pogłębiali swoją wiedzę na temat sposobu dokonywania wyborów przez ludzi, pokusa zdania się na algorytmy będzie przypuszczalnie coraz silniejsza. Zhakowanie ludzkiego procesu podejmowania decyzji nie tylko zwiększy niezawodność opartych na big data algorytmów, lecz zarazem doprowadzi do tego, że m n i e j niezawodne staną się ludzkie uczucia. Gdy rządom i korporacjom uda się zhakować ludzki system operacyjny, zostaniemy wystawieni na potok precyzyjnie kierowanej manipulacji, reklamy i propagandy. Wpływanie na nasze opinie i emocje może stać się tak proste, że będziemy zmuszeni zdać się na algorytmy – tak samo jak pilot, który podczas lotu dostał akurat zawrotów głowy, musi więc zignorować to, co mówią mu własne zmysły, i zaufać całkowicie aparaturze.
W niektórych krajach i niektórych kwestiach ludzie mogą nie mieć w ogóle wyboru i zostaną zmuszeni do podporządkowania się decyzjom algorytmów opartych na big data. Nawet jednak w społeczeństwach uchodzących za wolne algorytmy mogą zdobyć władzę, ponieważ doświadczenie nauczy nas ufać im w coraz większej liczbie sytuacji i stopniowo stracimy zdolność samodzielnego podejmowania decyzji. Wystarczy przypomnieć, jak w ciągu zaledwie dwóch dziesięcioleci miliardy ludzi nauczyły się powierzać algorytmowi wyszukiwania Google’a jedno z najważniejszych zadań: znajdowanie użytecznych i wiarygodnych informacji. Właściwie już nie szukamy informacji. Zamiast tego googlujemy. A w miarę jak coraz bardziej opieramy się na Google’u, poszukując odpowiedzi, zmniejsza się nasza zdolność samodzielnego pozyskiwania informacji. Już dzisiaj „prawdę” definiują najwyżej się plasujące wyniki wyszukiwania Google’a54.
To samo dzieje się z umiejętnościami fizycznymi, na przykład z orientacją w przestrzeni. O poprowadzenie do celu ludzie proszą Google’a. Gdy dojeżdżają do jakiegoś skrzyżowania, intuicja może im podpowiadać: „skręć w lewo”, ale Mapy Google mówią: „skręć w prawo”. Za pierwszym razem słuchają intuicji, skręcają w lewo, trafiają na korek i spóźniają się na ważne spotkanie. Następnym razem słuchają Google’a, skręcają w prawo i udaje im się zdążyć na czas. Uczą się ufać Google’owi na podstawie doświadczenia. Po roku lub dwóch ślepo polegają na tym, co mówią Mapy Google, a kiedy padnie im smartfon, są jak dzieci we mgle.
W marcu 2012 roku w Australii troje japońskich turystów postanowiło wybrać się na całodzienną wycieczkę na jakąś wysepkę i wjechało samochodem prosto do Oceanu Spokojnego. Kierująca nim dwudziestojednoletnia Yuzu Noda oznajmiła później, że po prostu wykonywała polecenia GPS-u: „on powiedział, że możemy tamtędy przejechać. Cały czas mówił, że poprowadzi nas do drogi. Ugrzęźliśmy”55. W kilku podobnych sytuacjach, najwyraźniej wykonując polecenia GPS-u, ludzie wjeżdżali do jeziora albo spadali z krawędzi rozebranego mostu56. Zdolność odnajdywania drogi jest jak mięśnie – nieużywana zanika57. To samo dotyczy umiejętności wybierania sobie małżonka albo profesji.
Co roku miliony młodych ludzi muszą decydować, gdzie iść na studia. To bardzo ważna
50
D. Chan,
51
E. Dwoskin, E.M. Rusli,
52
N. Andrade,
53
D. First,
54
C. Cadwalladr,
55
J. Freak, Sh. Holloway,
56
M. McQuigge,
57
H. Grabar,