Niesłusznie aresztowano co najmniej kilku Amerykanów, ponieważ zostali oni mylnie zidentyfikowani przez oprogramowanie do rozpoznawania twarzy oparte na sztucznej inteligencji – donosi onet.pl.
Dziennik „Washington Post” poinformował, że co najmniej osiem osób zostało niesłusznie aresztowanych w wyniku błędu narzędzi do rozpoznawania twarzy wykorzystujących AI. Po tej informacji dziennik przeanalizował policyjne dane z raportów, akt sądowych oraz rozmów z policją, prokuratorami i adwokatami. W wyniku tych działań wyszło na jaw, że policja w USA wykorzystuje narzędzia AI do zatrzymywania podejrzanych bez konieczności posiadania innych dowodów – czytamy.
Jak donosi onet.pl, okazuje się, że w kilku przypadkach policja nie sprawdziła alibi podejrzanych, a w dwóch zignorowała dowody wykluczające możliwość popełnienia przestępstwa, wśród których znalazły się nawet tak znaczące jak ślady DNA czy odciski palców. Gdyby policja nie pominęła przynajmniej jednego z podstawowych działań śledczych, można byłoby wykluczyć potencjalnych podejrzanych jeszcze przed ich aresztowaniem.
Ponadto – jak czytamy – pojawiły się przypadki aresztowania człowieka podejrzanego o zrealizowanie w banku sfałszowanego czeku na znaczną kwotę. Po rozpoznaniu przez narzędzia AI policja zatrzymała podejrzanego, lecz… nie sprawdziła nawet jego kont bankowych. W trzech przypadkach policja zignorowała też cechy fizyczne podejrzanych sprzeczne z rozpoznaniem przez AI. Dziennik opisuje przypadek kobiety w zaawansowanej ciąży aresztowanej za kradzież samochodu, mimo że ani zeznania świadków, ani nagranie z monitoringu nie wskazywały na to, że napadu dokonała ciężarna – ujawnia źródło.
Redakcja „Washington Post” zastrzegła, że prawdopodobnie ujawniła jedynie niewielką część problemu. Prokuratorzy rzadko informują opinię publiczną, kiedy w swoich działaniach posłużyli się narzędziami opartymi na sztucznej inteligencji – prawo wymaga ich ujawnienia tylko w siedmiu stanach w USA. Całkowita liczba przypadków niesłusznych aresztowań spowodowanych przez błędne wyniki wyszukiwania przez narzędzia AI jest więc niemożliwa do ustalenia – czytamy.
Jak przekazuje onet.pl, badacze odkryli ponadto, że osoby korzystające z narzędzi AI mogą ulegać skłonności do ślepego ufania sugerowanym przez nie odpowiedziom. Okazuje się jednak, że technologia nie zawsze właściwie pomaga w identyfikacji. Oprogramowanie do rozpoznawania twarzy rzeczywiście może działać niemal bezbłędnie, jednak odbywa się to w warunkach laboratoryjnych – z wykorzystaniem wyraźnych zdjęć porównawczych. Jak zauważyła Katie Kinsey, badaczka z wydziału prawa uniwersytetu NYU, nie przeprowadzono jednak niezależnych testów sprawdzających dokładność technologii stosowanej do odczytania mniej wyraźnych zdjęć czy nagrań z monitoringu – czytamy. (kn)
Źródło: onet.pl, Sztuczna inteligencja pomyliła twarze. Skutki okazały się opłakane, 14.01.2025