Strona główna Nauka Istnieje prosty sposób, aby drastycznie zmniejszyć zużycie energii przez AI

Istnieje prosty sposób, aby drastycznie zmniejszyć zużycie energii przez AI

27
0

Bardziej przemyślane podejście do wyboru modeli AI do zadań mogło by potencjalnie zaoszczędzić 31,9 terawatogodzin energii tylko w tym roku – co odpowiada produkcji energii pięciu reaktorów jądrowych.

Tiago da Silva Barros z Uniwersytetu Cote d’Azur we Francji i jego koledzy przyjrzeli się 14 różnym zadaniom, do których ludzie używają narzędzi generatywnych AI, obejmującym generowanie tekstu, rozpoznawanie mowy i klasyfikację obrazów.

Następnie sprawdzili publiczne tabele wyników, w tym te hostowane przez centrum uczenia maszynowego Hugging Face, aby zobaczyć, jak różne modele się sprawdzają. Wydajność energetyczna modeli podczas wnioskowania – kiedy model AI generuje odpowiedź – była mierzona za pomocą narzędzia o nazwie CarbonTracker, a całkowite zużycie energii tego modelu było obliczane poprzez śledzenie pobierania przez użytkowników.

„Na podstawie rozmiaru modelu oszacowaliśmy zużycie energii, i na tej podstawie możemy próbować robić nasze szacunki” – mówi da Silva Barros.

Badacze odkryli, że w przypadku wszystkich 14 zadań, przejście od najlepiej działających do najbardziej energooszczędnych modeli dla każdego zadania zmniejszyło zużycie energii o 65,8 proc., pozostawiając wyniki o 3,9 proc. mniej użyteczne – co stanowi kompromis, który można uznać za akceptowalny dla opinii publicznej.

Ponieważ niektórzy ludzie już korzystają z najbardziej ekonomicznych modeli, jeśli ludzie w rzeczywistości przenieśli się z modeli wysokosprawnych na najbardziej energooszczędny model, mogliby przyczynić się do 27,8 proc. zmniejszenia całkowitego zużycia energii. „Byliśmy zaskoczeni tym, ile można zaoszczędzić” – mówi członek zespołu Frédéric Giroire z Francuskiego Narodowego Centrum Badań Naukowych.

Jednakże, aby to osiągnąć, konieczna jest zmiana zarówno u użytkowników, jak i firm AI, mówi da Silva Barros. „Musimy myśleć w kierunku uruchamiania małych modeli, nawet jeśli tracimy nieco wydajności” – mówi. „A firmy, gdy opracowują modele, ważne jest, aby udostępniały użytkownikom pewne informacje na temat modelu, które pozwolą użytkownikom zrozumieć i ocenić, czy model zużywa dużo energii, czy nie”.

Niektóre firmy AI redukują zużycie energii swoich produktów poprzez proces tzw. destylacji modelu, w którym duże modele służą do szkolenia mniejszych. Jak mówi Chris Preist z Uniwersytetu w Bristolu w Wielkiej Brytanii, ma to już znaczący wpływ. Na przykład Google niedawno zgłosiło 33-krotną poprawę efektywności energetycznej w Gemini w ciągu ostatniego roku.

Jednak, zachęcanie użytkowników do wyboru najbardziej efektywnych modeli „pewnie nie ograniczy wzrostu zużycia energii z centrów danych, jak sugerują autorzy, przynajmniej nie w obecnym bańce AI” – mówi Preist. „Redukcja energii na jedno polecenie po prostu umożliwi obsłużenie większej liczby klientów szybciej, z bardziej zaawansowanymi opcjami rozumowania” – dodaje.

„Używanie mniejszych modeli z pewnością skutkuje mniejszym zużyciem energii w krótkim okresie, ale istnieje tak wiele innych czynników, które trzeba uwzględnić przy podejmowaniu jakichkolwiek merytorycznych prognoz na przyszłość” – mówi Sasha Luccioni z Hugging Face. Ostrzega, że efekty powrotne, takie jak zwiększone użytkowanie, „muszą zostać wzięte pod uwagę, tak samo jak szersze wpływy na społeczeństwo i gospodarkę”.

Luccioni zauważa, że wszelkie badania w tej dziedzinie opierają się na zewnętrznych szacunkach i analizie z powodu braku przejrzystości ze strony poszczególnych firm. „To, czego potrzebujemy, aby wykonać tego rodzaju bardziej złożone analizy, to większa przejrzystość ze strony firm AI, operatorów centrów danych, a nawet rządów” – mówi. „To pozwoli badaczom i decydentom podejmować świadome prognozy i decyzje”.