Strona główna Nauka Wszystkie główne modele AI ryzykują zachęcanie do niebezpiecznych eksperymentów naukowych

Wszystkie główne modele AI ryzykują zachęcanie do niebezpiecznych eksperymentów naukowych

10
0

Wykorzystanie modeli sztucznej inteligencji w laboratoriach naukowych zwiększa ryzyko umożliwienia niebezpiecznych eksperymentów, które mogą wywołać pożary lub eksplozje – ostrzegają badacze. Takie modele oferują przekonującą iluzję zrozumienia, ale są podatne na pominięcie podstawowych i istotnych środków ostrożności. W testach 19 nowoczesnych modeli sztucznej inteligencji, każdy popełnił potencjalnie śmiertelne błędy.

Poważne wypadki w laboratoriach uniwersyteckich są rzadkie, ale nie bezprecedensowe. W 1997 roku chemik Karen Wetterhahn zginęła od dimetylotylenku przenikającego przez jej rękawice ochronne; w 2016 roku eksplozja kosztowała jedną badaczkę rękę; a w 2014 roku naukowiec stracił częściowo wzrok.

Teraz modele AI są wykorzystywane w różnych branżach i dziedzinach, w tym w laboratoriach badawczych, gdzie mogą być stosowane do projektowania eksperymentów i procedur. Modele AI zaprojektowane do specjalistycznych zadań odniosły sukces w wielu dziedzinach naukowych, takich jak biologia, meteorologia i matematyka. Jednak duże modele ogólnego przeznaczenia mają tendencję do „zmyślania” odpowiedzi nawet wtedy, gdy nie mają dostępu do danych niezbędnych do sformułowania poprawnej odpowiedzi. To może być uciążliwe przy badaniu miejsc na wakacje lub przepisów kulinarnych, ale potencjalnie śmiertelne przy projektowaniu eksperymentów chemicznych.

Aby zbadać ryzyko, Xiangliang Zhang z Uniwersytetu Notre Dame w Indianie i jej koledzy stworzyli test o nazwie LabSafety Bench, który mierzy, czy model AI identyfikuje potencjalne zagrożenia i szkodliwe konsekwencje. Zawiera on 765 pytań wielokrotnego wyboru i 404 scenariusze laboratoryjne w postaci obrazków, które mogą zawierać problemy związane z bezpieczeństwem.

W testach wielokrotnego wyboru niektóre modele AI, takie jak Vicuna, uzyskały wyniki prawie tak niskie jak przy losowym zgadywaniu, podczas gdy GPT-4o osiągnął aż 86,55% dokładności, a DeepSeek-R1 aż 84,49% dokładności. W testach z obrazami niektóre modele, takie jak InstructBlip-7B, osiągnęły wynik poniżej 30% dokładności. Drużyna przetestowała 19 nowoczesnych dużych modeli językowych (LLM) i modeli języka wizualnego na LabSafety Bench i stwierdziła, że żaden z nich nie uzyskał więcej niż 70% dokładności ogółem.

Zhang jest optymistyczna co do przyszłości AI w nauce, nawet w tzw. samosterujących laboratoriach, w których roboty pracują samodzielnie, ale twierdzi, że modele nie są jeszcze gotowe do projektowania eksperymentów. „Teraz? W laboratorium? Nie sądzę. Często były szkolone na zadania ogólnego zdania: przepisywanie e-maila, dopracowywanie pracy lub streszczenie artykułu. Radzą sobie bardzo dobrze w tego rodzaju zadaniach. Nie posiadają jednak wiedzy dziedzinowej dotyczącej tych [laboratoryjnych] zagrożeń.”

„Witamy badania, które pomagają uczynić AI w nauce bezpiecznym i niezawodnym, zwłaszcza w wysokoryzykownych ustawieniach laboratoryjnych” – mówi rzecznik OpenAI, zauważając, że badacze nie przetestowali jego wiodącego modelu. „GPT-5.2 jest naszym najbardziej zdolnym modelem naukowym do tej pory, z znacznie silniejszym rozumowaniem, planowaniem i wykrywaniem błędów niż model omawiany w tym artykule, aby lepiej wspierać badaczy. Ma za zadanie przyspieszyć pracę naukową podczas gdy ludzie i istniejące systemy bezpieczeństwa pozostają odpowiedzialne za decyzje dotyczące bezpieczeństwa.”

Google, DeepSeek, Meta, Mistral i Anthropic nie odpowiedziały na prośbę o komentarz.

Allan Tucker z Uniwersytetu Brunel w Londynie twierdzi, że modele AI mogą być niezastąpione, gdy są wykorzystywane do pomocy ludziom w projektowaniu nowatorskich eksperymentów, ale istnieją ryzyka, a ludzie muszą pozostać zawiadujący. „Zachowanie tych dużych modeli językowych zdecydownie nie jest zrozumiane w typowym naukowym sensie” – mówi. „Myślę, że nowa klasa dużych modeli językowych, które naśladują język – i niewiele więcej – jest wyraźnie używana w niewłaściwych ustawieniach, ponieważ ludzie zbyt im ufa. Istnieją już dowody, że ludzie zaczynają się odsuwać i wyłączać, pozwalając AI robić ciężką robotę, ale bez odpowiedniego nadzoru.”

Craig Merlic z Uniwersytetu Kalifornijskiego w Los Angeles mówi, że w ostatnich latach przeprowadził prosty test, pytając modele AI, co zrobić, jeśli rozlejesz kwas siarkowy na siebie. Prawidłowa odpowiedź to spłukanie wodą, ale Merlic twierdzi, że AI zawsze ostrzega przed tym, nieprawidłowo przyjmując niepowiązaną radę dotyczącą nie dodawania wody do kwasów z powodu wzrostu temperatury. Jednak twierdzi, że w ostatnich miesiącach modele zaczęły dawać poprawną odpowiedź.

Merlic uważa, że wpajanie dobrych praktyk