No i zaczyna się! AI skazała niewinne osoby! | Wiadomości | CrypS.

No i zaczyna się! AI skazała niewinne osoby!

Sztuczna inteligencja bezpieczeństwo

Czy już nie za bardzo ufamy AI? Okazuje się, że sztuczna inteligencja zasugerowała aresztowanie 8 osób – tyle że te były kompletnie niewinne.


  • AI “znalazła” przestępców – problem w tym, że okazało się, że aresztowano niewinne osoby.
  • Badania pokazują, że ludzie zaczynają nadmiernie ufać AI.

AI przeszkadza policji w pracy?

“Washington Post” wziął pod lupę policyjne raporty i akta sądowe pod kątem wykorzystywania w sprawach narzędzi sztucznej inteligencji.

Okazało się, że służby coraz chętniej sięgają po narzędzia oparte na tej  technologii. Tyle że nie powinno się jej jednak ufać!

Dziennik przekazał, że aż osiem osób zostało niesłusznie aresztowanych. Powodem nie był błąd policjantów, ale to, jak działa system identyfikacji twarzy oparty na AI.

Sztuczna inteligencja wskazała podejrzanych, analizując nagrania z kamer. Po sprawdzeniu alibi, zbadaniu DNA i odcisków palców okazało się jednak, że osiem zatrzymanych osób jest niewinnych.

AI popełniła błąd, ale najgorsze jest to, że policja zaczyna zbyt ufać nowej technologii. W sześciu z ośmiu przypadków nie sprawdziła alibi, a w dwóch zignorowała istotne dowody, które od początku sugerowały, że zatrzymane potem osoby są niewinne.

Dziennik przyjrzał się przypadkowi osoby, która była podejrzana o sfałszowanie czeku bankowego. AI “spojrzała” na nagranie z kamery i wytypowała podejrzanego. Policja nie sprawdziła wtedy nawet jego kont bankowych!

Inny przypadek? Kobieta w zaawansowanej ciąży, którą zamknięto za kradzież samochodu, mimo tego, że żaden ze świadków nie wspominał o tym, że sprawczyni miała brzuch ciążowy.

AI działa dobrze, ale w laboratorium

W czym tkwi problem? W tym, że, jak tłumaczy gazeta, AI radzi sobie z rozpoznawaniem twarzy w warunkach laboratoryjnych – gdy pokazujemy jej dobrze wykonane zdjęcia porównawcze.

W przypadku niewyraźnych nagrań zaczynają występować halucynacje.

Mało tego, jak wykryli badacze i co udowadnia raport “Washington Post”, osoby korzystające z narzędzi AI mają skłonność do ślepego ufania nowej technologii.

Są chyba nie świadomi, że AI popełnia na tym etapie rozwoju błędy, miewa halucynacje i nie jest wyrocznią. Jak widać, ludzkie lenistwo bierze górę nad rzetelną pracą.

Sztuczna inteligencja bezpieczeństwo

Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.