Strona główna Aktualności Grupa na rzecz ochrony konsumentów apeluje do OpenAI o wycofanie aplikacji wideo...

Grupa na rzecz ochrony konsumentów apeluje do OpenAI o wycofanie aplikacji wideo Sora ze względów bezpieczeństwa i dezinformacji

25
0
Ikona przeczytania tekstu na głos

Posłuchaj tego artykułu

Przewidywany czas: 6 minut

Wersja audio tego artykułu została wygenerowana za pomocą technologii przekształcania tekstu na mowę opartej na sztucznej inteligencji.

Nieokrężna grupa konsumencka Public Citizen zażądała we wtorek w liście od OpenAI wycofania swojego oprogramowania do generowania wideo, Sora 2, po tym, jak aplikacja wzbudziła obawy dotyczące rozprzestrzeniania się dezinformacji i naruszeń prywatności.

W liście skierowanej do firmy i CEO Sama Altmana, Public Citizen oskarżyła OpenAI o pośpieszne wydanie aplikacji tak, aby mogła ją uruchomić przed konkurentami.

Grupa nadzorcza stwierdziła, że pokazuje to „stały i niebezpieczny wzorzec OpenAI polegający na pospieszności w wprowadzaniu na rynek produktu, który jest albo intratnie niebezpieczny, albo pozbawiony niezbędnych zabezpieczeń”.

Liść twierdzi, że Sora 2 wykazuje „lekomyślne lekceważenie” bezpieczeństwa produktu oraz praw ludzi do swojego wizerunku. Argumentowała również, że przyczynia się do bardziej ogólnego podważania zaufania publiczności do autentyczności treści online.

Grupa wysłała liście również do Kongresu USA.

OpenAI nie odpowiedziało natychmiast na wezwanie do komentarza we wtorek.

Więcej reakcji na reklamacje dotyczące treści związanych z celebrytami

Typowy filmik Sora został zaprojektowany tak, aby był na tyle zabawny, żebyś kliknął i udostępnił na platformach takich jak TikTok, Instagram, X i Facebook.

Mógł to być późny rys królowej Elżbiety II czy coś bardziej zwyczajnego i realistycznego. Jednym z popularnych gatunków Sora jest pokazywanie fałszywych nagrań z kamery wideo przy drzwiach rejestrującego coś lekko niesamowitego – na przykład pytona na werandzie lub aligatora zbliżającego się do niezmieszczonego dziecka – zakończonego lekko szokującym obrazem, na przykład babci krzyczącej, gdy bije zwierzę miotłą.

POSŁUCHAJ | Aplikacja wideo oparta na AI, Sora 2 już jest dostępna. Czy potrafisz rozróżnić, co jest prawdziwe?:

The Current24:17Nowa aplikacja wideo AI Sora jest tutaj: Czy potrafisz rozróżnić, co jest prawdziwe?

Czy to twój najlepszy przyjaciel jeżdżący na jednorożcu, Michael Jackson uczący matematyki czy Martin Luther King Junior marzący o oferowaniu pakietów wakacyjnych – teraz jest łatwiej i szybciej zamienić te pomysły w realistyczne filmy, korzystając z nowej aplikacji AI, Sora. Firma za nią odpowiadająca, OpenAI, obiecuje zabezpieczenia w celu zapobiegania przemocy i oszustwom – ale wielu krytyków obawia się, że aplikacja mogłaby nasilić dezinformację i zatruć społeczeństwo jeszcze większą „AI papką”.

Public Citizen dołącza do rosnącego chóru grup nadzorczych, akademików i ekspertów, którzy podnoszą alarmy dotyczące niebezpieczeństw wynikających z pozwalania ludziom tworzyć materiały wideo oparte na sztucznej inteligencji na podstawie tego, co tylko wpiszą w pole, co prowadzi do rozprzestrzeniania się obrazów nieuzgodnionych oraz realistycznych deepfake’ów w morzu mniej szkodliwej „AI papki”.

OpenAI zablokowało nagie treści, ale Branch powiedział, że „kobiety widzą, jak są nękane w inny sposób” online.

Specyficzne treści z fetyszyzacją przeniknęły przez ograniczenia aplikacji. Portal informacyjny 404 Media w piątek doniósł o fali filmików stworzonych za pomocą Sora, przedstawiających kobiety, które są duszone.

OpenAI wprowadziło swoją nową aplikację Sora na iPhony ponad miesiąc temu. W ubiegłym tygodniu została uruchomiona na telefonach z systemem Android w USA, Kanadzie oraz w kilku krajach azjatyckich, w tym w Japonii i Korei Południowej.

Większość najmocniejszych sprzeciwów wobec niej pochodziła od Hollywoodu i innych zainteresowanych branż rozrywkowych, w tym japońskiej branży mangi.