Kiedy w styczniu 2025 roku wysłałem e-mail, nie miałem zamiaru ustanowić precedensu prawnej dla sposobu, w jaki brytyjski rząd postępuje wobec swoich interakcji z chatbotami AI, ale właśnie to się stało. Wszystko się zaczęło w styczniu, kiedy przeczytałem wywiad z ówczesnym sekretarzem zajmującym się technologią w Wielkiej Brytanii, Peterem Kyle’em na stronie Politics Home. Próbując sugerować, że pierwszoosobowo korzystał z technologii, której jego departament miał nadzorować, Kyle przyznał, że często rozmawiał z ChatGPT. To skłoniło mnie do zastanowienia: czy mogę uzyskać dostęp do jego historii rozmów? Przepisy dotyczące swobody informacji często są stosowane do uzyskania e-maili i innych dokumentów produkowanych przez instytucje publiczne, ale przeszłe precedensy sugerowały, że niektóre prywatne dane – takie jak zapytania wyszukiwania – nie kwalifikują się do ujawnienia w ten sposób. Zainteresowało mnie, w jaki sposób rozmowy z chatbotem zostałyby sklasyfikowane. Okazało się, że większość interakcji Kyle’a z ChatGPT uznała się za prywatne, i dlatego nie kwalifikowały się do ujawnienia na podstawie przepisów o swobodzie informacji, ale te, gdy wchodził w interakcję z chatbotem AI w oficjalnych celach, tak. Tak więc w marcu Departament Nauki, Przemysłu i Technologii (DSIT) dostarczył kilka rozmów, które Kyle miał z chatbotem, które stały się podstawą naszej wyłącznej historii ujawniającej jego rozmowy. Vetojętoistotnazogwoluwytagonigważedetrizza: Tadaję zdziwieniem, że je zdobyłeś– powiedziałTim Turner, ekspert ochrony danych działający w Manchesterze, Wielka Brytania, wtedy. Inni nie byli tak dyplomatyczni w swoim języku: byli zszokowani. Przy publikowaniu artykułu wyjaśniliśmy, że ujawnienie było pierwsze na świecie – zdobycie dostępu do rozmów z chatbotami AI stało się międzynarodowym zainteresowaniem. Badacze z różnych krajów, w tym Kanady i Australii, skontaktowali się ze mną, żebym podpowiedział, jak stworzyć własne żądania do ministrów rządowych, aby spróbować uzyskać tę samą informację. Na przykład kolejne żądanie FOI w kwietniu wykazało, że Feryal Clark, wówczas brytyjski minister ds. sztucznej inteligencji, w ogóle nie korzystała z ChatGPT w oficjalnych celach, pomimo deklaracji jego korzyści. Ale wiele wniosków okazało się beznadziejnych, ponieważ rządy zaczęły polegać bardziej na wyjątkach prawnych od swobodnego ujawniania informacji. Osobiście stwierdziłem, że brytyjski rząd stał się ostrożniejszy w kontekście idei FOI, szczególnie w odniesieniu do korzystania z AI, od czasu mojego artykułu dla New Scientist. Kolejne żądanie, które złożyłem na podstawie ustawy FOI w sprawie odpowiedzi DSIT na artykuł – włączając w to wszelkie e-maile lub wiadomości zespołów Microsoft Teams wspominające o artykule, oraz sposób rozstrzygnięcia DSIT na temat oficjalnej odpowiedzi na artykuł – zostało odrzucone. Dlaczego? Uznano je za drażliwe, a dokładne wyodrębnienie informacji, które powinny być uwzględnione, zajęłoby zbyt wiele czasu. Miałem ochotę poprosić rząd, aby wykorzystał ChatGPT do podsumowania wszystkiego, co jest istotne, biorąc pod uwagę, jak bardzo wtedy sekretarz technologii chwalił jego umiejętności, ale zdecydowałem się na to. Ogólnie rzecz biorąc, ujawnienie miało znaczenie, ponieważ rządy przyjmują AI na dużą skalę. Rząd brytyjski już przyznał, że służba cywilna używa narzędzi podobnych do ChatGPT w codziennych procesach, twierdząc, że zaoszczędza nawet dwa tygodnie każdego roku dzięki zwiększonej efektywności. Również AI nie podsumowuje obiektywnie informacji, ani nie jest idealna: istnieją halucynacje. Dlatego ważne jest, aby mieć przejrzystość w kwestii tego, w jaki sposób jest wykorzystywana – na dobre i na złe. Tematy: polityka, przegląd wiadomości z 2025 roku.




