Naciśnij przycisk odtwarzania, aby odsłuchać tę zawartość
1x
Szybkość odtwarzania- 0.5
- 0.6
- 0.7
- 0.8
- 0.9
- 1
- 1.1
- 1.2
- 1.3
- 1.5
- 2
Niewinne osoby aresztowane. Powodem błąd sztucznej inteligencji. niesłusznie aresztowano co najmniej kilku amerykanów, ponieważ zostali oni mylnie zidentyfikowani przez oprogramowanie do rozpoznawania twarzy oparte na sztucznej inteligencji – donosi onet.pl. dziennik „washington post” poinformował, że co najmniej osiem osób zostało niesłusznie aresztowanych w wyniku błędu narzędzi do rozpoznawania twarzy wykorzystujących ai. po tej informacji dziennik przeanalizował policyjne dane z raportów, akt sądowych oraz rozmów z policją, prokuratorami i adwokatami. w wyniku tych działań wyszło na jaw, że policja w usa wykorzystuje narzędzia ai do zatrzymywania podejrzanych bez konieczności posiadania innych dowodów – czytamy. jak donosi onet.pl, okazuje się, że w kilku przypadkach policja nie sprawdziła alibi podejrzanych, a w dwóch zignorowała dowody wykluczające możliwość popełnienia przestępstwa, wśród których znalazły się nawet tak znaczące jak ślady dna czy odciski palców. gdyby policja nie pominęła przynajmniej jednego z podstawowych działań śledczych, można byłoby wykluczyć potencjalnych podejrzanych jeszcze przed ich aresztowaniem. ponadto – jak czytamy – pojawiły się przypadki aresztowania człowieka podejrzanego o zrealizowanie w banku sfałszowanego czeku na znaczną kwotę. po rozpoznaniu przez narzędzia ai policja zatrzymała podejrzanego, lecz… nie sprawdziła nawet jego kont bankowych. w trzech przypadkach policja zignorowała też cechy fizyczne podejrzanych sprzeczne z rozpoznaniem przez ai. dziennik opisuje przypadek kobiety w zaawansowanej ciąży aresztowanej za kradzież samochodu, mimo że ani zeznania świadków, ani nagranie z monitoringu nie wskazywały na to, że napadu dokonała ciężarna – ujawnia źródło. redakcja „washington post” zastrzegła, że prawdopodobnie ujawniła jedynie niewielką część problemu. prokuratorzy rzadko informują opinię publiczną, kiedy w swoich działaniach posłużyli się narzędziami opartymi na sztucznej inteligencji – prawo wymaga ich ujawnienia tylko w siedmiu stanach w usa. całkowita liczba przypadków niesłusznych aresztowań spowodowanych przez błędne wyniki wyszukiwania przez narzędzia ai jest więc niemożliwa do ustalenia – czytamy. jak przekazuje onet.pl, badacze odkryli ponadto, że osoby korzystające z narzędzi ai mogą ulegać skłonności do ślepego ufania sugerowanym przez nie odpowiedziom. okazuje się jednak, że technologia nie zawsze właściwie pomaga w identyfikacji. oprogramowanie do rozpoznawania twarzy rzeczywiście może działać niemal bezbłędnie, jednak odbywa się to w warunkach laboratoryjnych – z wykorzystaniem wyraźnych zdjęć porównawczych. jak zauważyła katie kinsey, badaczka z wydziału prawa uniwersytetu nyu, nie przeprowadzono jednak niezależnych testów sprawdzających dokładność technologii stosowanej do odczytania mniej wyraźnych zdjęć czy nagrań z monitoringu – czytamy. (kn). źródło: onet.pl, sztuczna inteligencja pomyliła twarze. skutki okazały się opłakane, 14.01.2025.
Niesłusznie aresztowano co najmniej kilku Amerykanów, ponieważ zostali oni mylnie zidentyfikowani przez oprogramowanie do rozpoznawania twarzy oparte na sztucznej inteligencji – donosi onet.pl.
Dziennik „Washington Post” poinformował, że co najmniej osiem osób zostało niesłusznie aresztowanych w wyniku błędu narzędzi do rozpoznawania twarzy wykorzystujących AI. Po tej informacji dziennik przeanalizował policyjne dane z raportów, akt sądowych oraz rozmów z policją, prokuratorami i adwokatami. W wyniku tych działań wyszło na jaw, że policja w USA wykorzystuje narzędzia AI do zatrzymywania podejrzanych bez konieczności posiadania innych dowodów – czytamy.
Jak donosi onet.pl, okazuje się, że w kilku przypadkach policja nie sprawdziła alibi podejrzanych, a w dwóch zignorowała dowody wykluczające możliwość popełnienia przestępstwa, wśród których znalazły się nawet tak znaczące jak ślady DNA czy odciski palców. Gdyby policja nie pominęła przynajmniej jednego z podstawowych działań śledczych, można byłoby wykluczyć potencjalnych podejrzanych jeszcze przed ich aresztowaniem.
Ponadto – jak czytamy – pojawiły się przypadki aresztowania człowieka podejrzanego o zrealizowanie w banku sfałszowanego czeku na znaczną kwotę. Po rozpoznaniu przez narzędzia AI policja zatrzymała podejrzanego, lecz… nie sprawdziła nawet jego kont bankowych. W trzech przypadkach policja zignorowała też cechy fizyczne podejrzanych sprzeczne z rozpoznaniem przez AI. Dziennik opisuje przypadek kobiety w zaawansowanej ciąży aresztowanej za kradzież samochodu, mimo że ani zeznania świadków, ani nagranie z monitoringu nie wskazywały na to, że napadu dokonała ciężarna – ujawnia źródło.
Redakcja „Washington Post” zastrzegła, że prawdopodobnie ujawniła jedynie niewielką część problemu. Prokuratorzy rzadko informują opinię publiczną, kiedy w swoich działaniach posłużyli się narzędziami opartymi na sztucznej inteligencji – prawo wymaga ich ujawnienia tylko w siedmiu stanach w USA. Całkowita liczba przypadków niesłusznych aresztowań spowodowanych przez błędne wyniki wyszukiwania przez narzędzia AI jest więc niemożliwa do ustalenia – czytamy.
Jak przekazuje onet.pl, badacze odkryli ponadto, że osoby korzystające z narzędzi AI mogą ulegać skłonności do ślepego ufania sugerowanym przez nie odpowiedziom. Okazuje się jednak, że technologia nie zawsze właściwie pomaga w identyfikacji. Oprogramowanie do rozpoznawania twarzy rzeczywiście może działać niemal bezbłędnie, jednak odbywa się to w warunkach laboratoryjnych – z wykorzystaniem wyraźnych zdjęć porównawczych. Jak zauważyła Katie Kinsey, badaczka z wydziału prawa uniwersytetu NYU, nie przeprowadzono jednak niezależnych testów sprawdzających dokładność technologii stosowanej do odczytania mniej wyraźnych zdjęć czy nagrań z monitoringu – czytamy. (kn)
Źródło: onet.pl, Sztuczna inteligencja pomyliła twarze. Skutki okazały się opłakane, 14.01.2025