Algorytmy coraz częściej wiedzą, co chcemy kupić, obejrzeć czy jak zagłosujemy. Czy to oznacza, że ludzkie decyzje można przewidzieć tak samo jak pogodę?
Teza
Michal Kosinski z Uniwersytetu Stanforda (wcześniej Cambridge) wykazał, że na podstawie polubień na Facebooku można przewidzieć orientację polityczną, a nawet cechy osobowości, z dokładnością większą niż partner życiowy badanej osoby. Amazon, Netflix i Google korzystają z systemów rekomendacyjnych, które zadziwiająco trafnie „zgadują”, co wybierzemy. Firmy ubezpieczeniowe i sądy w USA stosują systemy scoringowe (np. COMPAS), które mają przewidywać ryzyko recydywy. Zwolennicy twierdzą, że człowieka można modelować matematycznie, a jego wybory da się ująć w algorytm.
Antyteza
Ale badania Kate Crawford i Meredith Broussard pokazują, że systemy predykcyjne często powielają uprzedzenia. Przewidują na podstawie korelacji, a nie rozumieją przyczyn. Arvind Narayanan z Princeton ostrzega, że AI predykcyjna jest w najlepszym razie przybliżeniem, a w najgorszym – narzędziem dyskryminacji. Wolna wola, spontaniczność i kontekst sytuacyjny wymykają się algorytmom. Historia zna przypadki, gdzie przewidywania były błędne – np. błędne oceny ryzyka w sądach, które skrzywdziły niewinnych ludzi.
Na chłopski rozum
To, że sklep trafnie poleci ci buty, nie znaczy, że zna twoje życie. Człowiek potrafi w ostatniej chwili zmienić zdanie – i tego żaden algorytm nie przewidzi.
Puenta
Algorytmy przewidują schematy, nie wolną wolę. Mogą być pomocne, ale nigdy nie zastąpią ludzkiego wyboru.