Deep-Live-Cam to narzędzie służące do tworzenia deepfake'ów. Zamienia zdjęcia w transmisje wideo live. W gronie deweloperów na GitHubie stało się hitem.
- Deep-Live-Cam to narzędzie "ożywiające" zdjęcia.
- Cieszy się dużą popularnością, ale stanowi też ogromne zagrożenie.
- Senat USA dopiero teraz uchwala przepisy, które zakazują stosowania AI w niewłaściwy sposób.
Deep-Live-Cam groźnym hitem
Zbudowany głównie w języku skryptowym
Python, Deep-Live-Cam to program
AI, który łatwo pobrać i zmodyfikować - można go wdrożyć w aplikacjach, które będą działać na telefonach i innych urządzeniach komunikacyjnych.
Potrafi "ożywiać" zdjęcia. I w tej sposób właśnie tworzy fałszywe sytuację. Może np.
pokazać znanego polityka okradającego przechodnia czy obmacującego jakąś kobietę.
By pojąć skalę zagrożenia, warto dodać, że
oszustwa związane z generatywną sztuczną inteligencją mają do 2027 r. kosztować Stany Zjednoczone ponad 40 miliardów USD rocznie (przy tempie wzrostu o 32% rok do roku).
To dane pochodzące z badania przeprowadzonego przez
Deloitte z maja tego roku. Nie chodzi jednak tylko o pieniądze, ale też
straty społeczne i moralne.
Etyka przede wszystkim!
Na stronie repozytorium
GitHub znajduje się kilka próśb programistów o zaostrzenie kwestii etycznych dot.
Deep-Live-Cam.
Główny programista
Kenneth Estanislao broni jednak swojego dzieła i przekazał serwisowi Decrypt, że narzędzie stanowi
„ciekawy przypadek użycia” i ma służyć celom rozrywkowym.
Brzmi to fajnie na papierze. W praktyce może służyć w
wojnie informacyjnej.
Aplikacja została wydana po raz pierwszy w zeszłym roku. Jej ostatnia aktualizacja miała miejsce
trzy tygodnie temu. Zebrała ponad 20 000 "gwiazdek" (oznacza to liczbę użytkowników, którzy oznaczyli repozytorium jako ulubione).
Dla porównania, kolejnym najpopularniejszym repozytorium GitHub narzędziem opartym na
blockchainie jest
Shardeum z zaledwie 1250 "gwiazdkami".
Wszystko to ma miejsce po tym, jak
Senat USA uchwalił ustawę zakazującą pornograficznych deepfake'ów.
Twórcy oprogramowania będą więc musieli tak projektować swoje narzędzia, by te nie generowały erotycznych treści. Tyle że to nadal mało.
Potrzebne są przepisy, które chroniłyby ludzi przed tą technologią w szerszy sposób. W taki, jaki wspomniałem powyżej: uniemożliwiające generowanie deepfake'ów pokazujących poszczególne osoby w kompromitujących sytuacjach.
//www.youtube.com/watch?v=BaaYsHN17Rk
Komentarze