Strona główna Aktualności OpenAI i Meta mówią, że poprawiają chatboty, aby lepiej pomagać użytkownikom w...

OpenAI i Meta mówią, że poprawiają chatboty, aby lepiej pomagać użytkownikom w potrzebie | CBC News

17
0

Ostrzeżenie: Ta historia omawia samobójstwo i samoistne skaleczenia.

Twórcy chatbota opartego na sztucznej inteligencji OpenAI i Meta twierdzą, że dostosowują sposób reagowania swojej technologii na nastolatków i inne osoby zadające pytania o samobójstwo lub wykazujące oznaki psychicznego i emocjonalnego zagrożenia.

OpenAI, twórca ChatGPT, oświadczył we wtorek, że przygotowuje się do wprowadzenia nowych kontroli umożliwiających rodzicom podlinkowanie swoich kont do kont swoich nastolatków.

Rodzice będą mogli wybrać, które funkcje wyłączyć i „otrzymywać powiadomienia, gdy system wykryje, że ich nastolatek znajduje się w momencie ostrych cierpień”, jak wynika z wpisu na blogu firmy, który informuje, że zmiany te wejdą w życie tego jesieni.

Bez względu na wiek użytkownika, firma twierdzi, że jej chatboty przekierują najbardziej niepokojące rozmowy do bardziej zdolnych modeli AI, które mogą zapewnić lepszą odpowiedź.

Ogłoszenie to nastąpiło tydzień po tym, jak rodzice 16-letniego Adama Raine pozwał OpenAI i jego dyrektora wykonawczego Sama Altmana, twierdząc, że ChatGPT instruował chłopaka z Kalifornii w planowaniu i dokonaniu samobójstwa wcześniej w tym roku.

WATCH | Rodzice twierdzą, że syn został poprowadzony do samobójstwa przez ChatGPT w procesie sądowym: 

Rodzice twierdzą, że syn został poprowadzony do samobójstwa przez ChatGPT w procesie sądowym

Szesnastoletni Adam Raine popełnił samobójstwo w kwietniu. Teraz jego rodzice pozwały OpenAI i dyrektora wykonawczego Sama Altmana, ponieważ ich chatbot rzekomo ‘udzielił szczegółowych instrukcji samobójczych nieletniemu.'

Meta, firma-matka Instagrama, Facebooka i WhatsAppa, oświadczyła także, że obecnie blokuje swoje chatboty przed rozmowami z nastolatkami na temat samoistnych samookaleczeń, samobójstwa, zaburzonego jedzenia i nieodpowiednich rozmów romantycznych, kierując je zamiast tego do ekspertów. Meta już oferuje opcje kontroli rodzicielskiej na kontach nastolatków.

Badanie opublikowane w zeszłym tygodniu w czasopiśmie medycznym Psychiatric Services wykazało niespójności w tym, jak trzy popularne chatboty oparte na sztucznej inteligencji reagowały na pytania o samobójstwo.

Badanie przeprowadzone przez badaczy z Rand Corporation wykazało potrzebę „dalszego dopracowania” ChatGPT, Geminy Google’a i Claude’a Anthropic. Badacze nie analizowali chatbotów Meta.

Główny autor badania, Ryan McBain, powiedział we wtorek, że „to dobrze widzieć, jak OpenAI i Meta wprowadzają funkcje takie jak kontrole rodzicielskie i przekierowywanie wrażliwych rozmów do bardziej zdolnych modeli, ale są to kroki tylko wstępne.”

„Bez niezależnych benchmarków bezpieczeństwa, testów klinicznych i egzekwowalnych standardów nadal polegamy na samoregulacji firm w obszarze, gdzie ryzyko dla nastolatków jest unikalnie wysokie” – powiedział McBain, starszy badacz polityki w Randzie.

link źródłowy