Sam Altman, dyrektor generalny OpenAI, przyznał na X (Twitter), że zwroty grzecznościowe takie jak „proszę” i „dziękuję” do AI kosztuje jego firmę bardzo dużo.
Jeden z użytkowników X (wcześniej Twitter) zapytał, ile OpenAI traci pieniędzy na prąd przez grzeczność użytkowników. Niespodziewanie na to pytanie odpowiedział Sam Altman, że to „dziesiątki milionów dolarów, które warto wydać”.
https://twitter.com/sama/status/1912646035979239430
Jak się okazuje, traktowanie AI z szacunkiem ma swoich zwolenników. Kurtis Beavers, menedżer projektów w Microsoft, twierdzi, że odpowiednia etykieta „pomaga osiągać lepsze wyniki”.
Grzeczny język ustawia ton odpowiedziKurtis Beavers
Kiedy AI zauważa, że użytkownik jest miły, to sama staje się bardziej uprzejma. Raport Microsoft WorkLab wykazał, że „AI również odzwierciedla profesjonalizm, jasność i szczegółowość w Twoich poleceniach”.
Jesteśmy uprzejmi, bo tak wypada i obawiamy się zagłady AI
Badanie z końca 2024 roku pokazało, że:
- 67% Amerykanów przyznaje, że są mili dla swoich chatbotów.
- Spośród tych, którzy praktykują grzeczność, 55% robi to „bo tak wypada”, a 12% ma nadzieję, że w ten sposób uratują się w przyszłości przy ewentualnym „buncie maszyn” ;).
Ile prądu generuje 100 wyrazów stworzonych przez AI?
Jedno z badań przeprowadzonych przez Washington Post we współpracy z naukowcami z Uniwersytetu Kalifornijskiego analizowało wpływ wysyłania 100-wyrazowego e-maila. Okazało się, że jeden taki e-mail wymaga 0,14 kilowata godziny energii. To z kolei wystarcza na zasilenie 14 żarówek LED przez godzinę. Jeśli wysyłasz jeden taki e-mail ze wsparciem AI tygodniowo przez rok, zużyjesz 7,5 kWh (sic!). Odpowiada to energii zużywanej przez 9 gospodarstw domowych w Waszyngtonie przez godzinę.
Ile prądu zużywa OpenAI w takim razie?
To jak ma się bycie miłym do rachunków za prąd? Zamiast tworzyć proste, skuteczne prompty by dostać konkretną odpowiedź, to AI tworzy zbędne elaboraty w uprzejmym tonie.
Według raportu Goldman Sachs cytowanego w dyskusji, każde zapytanie ChatGPT-4 zużywa około 2,9 Wh energii elektrycznej. To prawie dziesięć razy więcej niż standardowe wyszukiwanie w Google. Przy ponad miliardzie zapytań obsługiwanych dziennie, zużycie energii przez OpenAI wynosi około 2,9 miliona kilowatogodzin dziennie.
AI pochłania już 2% światowej energii
Centra obliczeniowe AI, które zasilają te chatboty, pochłaniają już około 2% światowej energii. Wszystko wskazuje na to, że ta liczba będzie rosnąć wraz z upowszechnieniem ich w naszym codziennym życiu.