#IBMPolskaJutra

Czy algorytmy boją się piątku trzynastego?

Share this post:

Każdy z nas, gdzieś w głębi duszy, kieruje się wiekowymi przesądami i uprzedzeniami. Niektóre z nich traktowane są jako element tradycji, jeszcze inne są integralną częścią naszego dziedzictwa kulturowego. Nasze zachowania oraz reakcje na pewne sytuacje są tak głęboko zakorzenione, że traktujemy je jako normalne. I choć takie czynności, jak unikanie czarnych kotów na ulicy, sypanie solą za siebie i zakrycie stłuczonych luster są traktowane jak drobne dziwactwa, to są w dużej mierze akceptowane przez nasze otoczenie.

Czemu o tym wspominam na blogu technologicznym, traktującym o innowacjach? Przecież komputery nie mają duszy, a zatem przenoszenie kodów kulturowych i zachowań społecznych na grunt algorytmów jest niemożliwe. Ale czy na pewno? Sztuczna inteligencja, zaskakująca nas na co dzień swoimi zdolnościami poznawczymi, jest ciągle oparta o algorytmy oraz dane, których zródłem jest człowiek. No właśnie – człowiek, którego przesądy o nieuchronności nadejścia nieszczęścia w piątek trzynastego są jedynie czubkiem góry lodowej, pod którą kryją się dużo mroczniejsze przekonania.

Nie udawajmy, że rasizm, seksizm, ksenofobia i zachowania jawnie dyskryminacyjne z błahych powodów są marginalnymi zjawiskami. Wręcz przeciwnie, takie zachowania są obecne we wszystkich kulturach i można na nie natrafić w każdym zakątku świata. I te właśnie zachowania, poprzez dane spreparowane przez ludzi i konsumowane przez algorytmy, wybierają za nas kandydatów do pracy, analizują podróżujących na granicach państwowych lub decydują o przyznaniu nam kredytu bankowego. W konsekwencji, istnieje ryzyko, że całe grupy ludzi mogą zostać wykluczone z normalnego życia społecznego ze względu na algorytmy sztucznej inteligencji, będące programowo negatywnie do nich nastawione.

Niemożliwe? Wręcz przeciwnie, a przypadków z roku na rok mnoży się coraz więcej. W maju 2016 w Stanach Zjednoczonych organizacja społeczna ProPublica opublikowała analizę, z której wynikało, że system COMPAS, używany do oceny prawdopodobieństwa ponownego popełnienia przestępstwa przez więzniów, dużo częściej w stosunku do realnych statystyk wskazuje afroamerykanów jako osoby zdolne do zostania recydywistami [1]. Microsoft zaliczył wpadkę przy okazji uruchomienia bota o uroczym imieniu Tay w serwisie Twitter, która pod wpływem interakcji z otoczeniem w przeciągu 24 godzin zamieniła się w nawołującą do czystek etnicznych rasistkę [2]. Również Google został posądzony o seksizm, gdy analiza wykonana w 2015 roku wykazała, że na hasło “CEO” w amerykanskiej wersji wyszukiwarki, wyniki pokazywały jedynie 11 procent osób płci żeńskiej, gdzie faktycznie procent kobiet pełniących tę rolę w USA jest dużo wyższy.

Dlaczego tak się dzieje, że nasze przekonania i przesądy przenoszą się na grunt mechanizmów sztucznej inteligencji? Bardzo często wynika to nie tyle z naszych uprzedzeń, a z jakości danych, z których algorytmy korzystają. Przykładem jest proces rekrutacji. Język, za pomocą którego algorytm dokonuje analizy tekstu CV, może nie posiadać pewnych terminów zawodowych w wersji żeńskiej. To powoduje, że algorytmy w sposób naturalny wybierają osoby, których życiorys zawiera specjalistyczne terminy napisane w języku, który potrafią interpretować. Innym problemem jest brak testów, czego rezultatem były wpadki na wzór tej z botem Tay Microsoftu. Innym elementem, który ma wpływ na działanie algorytmów jest pochodzenie ich twórców – mówiąc wprost, algorytmy pisane przez programistę w kraju z jednego kręgu kulturowo-cywilizacyjnego niekoniecznie muszą podejmować właściwe decyzje w stosunku do społeczeństwa znajdującego się po drugiej stronie globu.

Czy to oznacza, że kwestią czasu jest wykluczenie nas z jakiegoś istotnego społecznie procesu tylko ze względu na nasze charakterystyki wyglądu lub zachowania? Niekoniecznie. Wiele firm i uniwersytetów zidentyfikowało już wyżej zdefiniowany problem i podejmują pierwsze konkretne kroki w celu wytworzenia mechanizmów sztucznej inteligencji odpornej na subiektywizm ich twórców. W ramach strategii tzw. 5 in 5, IBM jako priorytet dla rozwoju w nadchodzących latach przyjął zastosowanie etyki przy budowie algorytmów oferowanych swoim klientom. W tym celu, jednostka IBM Watson AI Labs wraz z Massachusetts Institute of Technology wspólnie pracują nad pryncypiami, które pozwalają algorytmom sztucznej inteligencji na podejmowanie decyzji w oparciu o pewne ogólnie akceptowane wartości [4]. Jest zatem szansa, że w niedalekiej przyszłości, gdy poprosimy naszego cyfrowego asystenta o rezerwację biletów lotniczych z datą wylotu w piątek trzynastego, nasza prośba zostanie spełniona bez mrugnięcia światłowodem.

Dowiedz się więcej na Think Warsaw: https://ibm.biz/BdzhLj

Przypisy:

[1] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[2] https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

[3] https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/

[4] https://www.research.ibm.com/5-in-5/ai-and-bias/

Blockchain Technical Leader

More #IBMPolskaJutra stories
By ibmblogs on 23/04/2024

Uniwersytet Warmińsko-Mazurski dołącza do inicjatywy IBM SkillsBuild

Mariusz Ochla, IBM PBU University&Research Strategic Cooperation Leader Rozwój kompetencji w zakresie nowych technologii jest obecnie nieodzownym elementem ścieżki edukacyjnej, który wpisuje się w oczekiwania pracodawców i światowe trendy. W IBM podchodzimy do tego procesu z dużym zaangażowaniem i chcemy współuczestniczyć w edukacji młodego pokolenia. Dlatego z wielką przyjemnością informujemy o nawiązaniu partnerstwa z Uniwersytetem […]

Continue reading

By ibmblogs on 29/02/2024

Inter Cars rozwija biznes z IBM Power10

Bezpieczeństwo danych i szybka dostępność systemu w przypadku awarii lub ataku Inter Cars, największy dystrybutor części zamiennych do samochodów w Europie Środkowo-Wschodniej, wybrał IBM Power10 do modernizacji swojego systemu IT i osiągnięcia dodatkowych korzyści biznesowych. Technologia IBM gwarantuje firmie co najmniej 5-letnią perspektywę rozwoju centralnego systemu ERP, nawet w scenariuszu podwojenia obciążenia. Wybór przez Inter […]

Continue reading

By ibmblogs and on 01/09/2022

Darczyńca – nowa i innowacyjna aplikacja w chmurze wspiera działania pomocowe samorządów

Aplikacja działa w chmurze IBM Cloud i wspiera przekazywanie niezbędnych przedmiotów osobom potrzebującym Warszawa, 1 września 2022 r: Infonet Projekt zaprezentował aplikację chmurową Darczyńca. To jedyne w Polsce tego typu rozwiązanie dla samorządów i organizacji społecznych do skoordynowanego i transparentnego zarządzania przekazywaniem darów od mieszkańców. Aplikacja Darczyńca jest hostowana w chmurze IBM Cloud, która zapewnia […]

Continue reading