Ten program do tworzenia deep fake’ów stał się hitem na githubie
Deep-Live-Cam to narzędzie służące do tworzenia deepfake’ów. Zamienia zdjęcia w transmisje wideo live. W gronie deweloperów na GitHubie stało się hitem.
- Deep-Live-Cam to narzędzie “ożywiające” zdjęcia.
- Cieszy się dużą popularnością, ale stanowi też ogromne zagrożenie.
- Senat USA dopiero teraz uchwala przepisy, które zakazują stosowania AI w niewłaściwy sposób.
Deep-Live-Cam groźnym hitem
Zbudowany głównie w języku skryptowym Python, Deep-Live-Cam to program AI, który łatwo pobrać i zmodyfikować – można go wdrożyć w aplikacjach, które będą działać na telefonach i innych urządzeniach komunikacyjnych.
Potrafi “ożywiać” zdjęcia. I w tej sposób właśnie tworzy fałszywe sytuację. Może np. pokazać znanego polityka okradającego przechodnia czy obmacującego jakąś kobietę.
By pojąć skalę zagrożenia, warto dodać, że oszustwa związane z generatywną sztuczną inteligencją mają do 2027 r. kosztować Stany Zjednoczone ponad 40 miliardów USD rocznie (przy tempie wzrostu o 32% rok do roku).
To dane pochodzące z badania przeprowadzonego przez Deloitte z maja tego roku. Nie chodzi jednak tylko o pieniądze, ale też straty społeczne i moralne.
Etyka przede wszystkim!
Na stronie repozytorium GitHub znajduje się kilka próśb programistów o zaostrzenie kwestii etycznych dot. Deep-Live-Cam.
Główny programista Kenneth Estanislao broni jednak swojego dzieła i przekazał serwisowi Decrypt, że narzędzie stanowi „ciekawy przypadek użycia” i ma służyć celom rozrywkowym.
Brzmi to fajnie na papierze. W praktyce może służyć w wojnie informacyjnej.
Aplikacja została wydana po raz pierwszy w zeszłym roku. Jej ostatnia aktualizacja miała miejsce trzy tygodnie temu. Zebrała ponad 20 000 “gwiazdek” (oznacza to liczbę użytkowników, którzy oznaczyli repozytorium jako ulubione).
Dla porównania, kolejnym najpopularniejszym repozytorium GitHub narzędziem opartym na blockchainie jest Shardeum z zaledwie 1250 “gwiazdkami”.
Wszystko to ma miejsce po tym, jak Senat USA uchwalił ustawę zakazującą pornograficznych deepfake’ów.
Twórcy oprogramowania będą więc musieli tak projektować swoje narzędzia, by te nie generowały erotycznych treści. Tyle że to nadal mało.
Potrzebne są przepisy, które chroniłyby ludzi przed tą technologią w szerszy sposób. W taki, jaki wspomniałem powyżej: uniemożliwiające generowanie deepfake’ów pokazujących poszczególne osoby w kompromitujących sytuacjach.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.