Biały Dom rozważa nadzór nad nowymi modelami sztucznej inteligencji przed ich oficjalnym wydaniem, co stanowi odwrócenie dotychczasowego stanowiska o obojętności.
Administracja prezydenta USA Donalda Trumpa rozważa możliwość przejrzenia nowych modeli sztucznej inteligencji przed oficjalnym wydaniem, co oznacza potencjalną zmianę obecnego podejścia o braku ingerencji, jak podaje New York Times powołując się na źródła.
Według doniesień, administracja USA rozważa utworzenie grupy roboczej ds. sztucznej inteligencji, która włączyłaby urzędników i przedstawicieli branży technologicznej w celu zbadania opcji nadzoru, w tym możliwego formalnego procesu recenzji.
Źródła twierdzą, że celem jest uniknięcie politycznych konsekwencji potencjalnego cyberatakowania za pomocą sztucznej inteligencji, a jednocześnie umożliwienie urzędnikom wczesnego dostępu do nowych modeli w celu oceny, czy mogą one oferować zdolności cybernetyczne przydatne dla Pentagonu.
System mógłby umożliwić rządowi wczesny dostęp do zaawansowanych modeli, aczkolwiek niekoniecznie zdolność ich blokowania. Urzędnicy rozmawiali ostatnio na ten temat z przedstawicielami Anthropic, Google i OpenAI.
Podejście mogłoby naśladować brytyjski Instytut Bezpieczeństwa AI, który ocenia zaawansowane modele pod kątem ryzyka i doradza rządowi w kwestii zabezpieczeń. W USA główne laboratoria dobrowolnie testują modele w Federalnym Centrum Norm i Innowacji dotyczących AI, ale z bardziej pro-biznesowym podejściem, przedstawiając bezpieczeństwo jako narzędzie do budowania zaufania.
Nie jest jasne, jakby miały działać recenzje ani które agencje miałyby je przeprowadzać. Jakakolwiek mechanizm prawdopodobnie zostałby wprowadzony poprzez dekret prezydencki, choć nie określono harmonogramu.
Wymaganie formalnych recenzji stanowiłoby odwrócenie polityki Trumpa wobec AI. Od powrotu do urzędu, popierał on minimalne regulacje, nazywając AI „pięknym nowonarodzonym dzieckiem”, które jest kluczowe dla konkurowania z Chinami i ostrzegając przed „polityką lub głupimi zasadami”, które mogłyby hamować jego wzrost.
(New York Times ujawnił, że zmiana nabrała pilności po tym, jak Anthropic zaprezentował potężny nowy model, Claude Mythos, który zdecydował się nie wydać publicznie, ostrzegając, że może to narazić krytyczne luki w oprogramowaniu.)
(Debata ta również ma miejsce po sporze między Anthropic a Pentagonem, po tym jak firma odmówiła złagodzenia zabezpieczeń w sprawie nadzoru i broni autonomicznej. Departament Wojny określił to jako „ryzyko łańcucha dostaw”, wyłączając ją z umów – ruch, któremu Anthropic obecnie sprzeciwia się w sądzie.)
Pentagon szybko zwiększał wykorzystanie AI w swoich operacjach, niedawno zawierając umowy z Google i OpenAI dotyczące modeli klasyfikowanych.
Obawy związane z ryzykiem związanym z AI w USA narastały od jakiegoś czasu. Sondaż Pew Research Center z zeszłego roku wykazał, że 50% Amerykanów było bardziej zaniepokojonych niż podekscytowanych AI, co oznacza wzrost z 37% w 2021 roku. Ankieta przeprowadzona przez Gallup w marcu wykazała, że sentyment Gen Z zmienia się na bardziej negatywny, a optymizm spada, a gniew rośnie.
(There are a few machine-translated words in the text that might require contextual verification for accuracy.)





