OpenAI CEO’su Sam Altman’ın son günlerde yaptığı bir açıklama, “ortalama bir ChatGPT sorgusunun bir fırının bir saniyede harcadığı enerjiye eşdeğer olduğunu” ortaya koyarak yapay zekanın çevresel etkilerini yeniden gündeme taşıdı.
Ancak konuya dair uzman görüşleri ve yeni bilimsel çalışmalar, bu sorunun daha karmaşık olduğunu ve “ortalama” değerlerin yanıltıcı olabileceğini vurguluyor.
ENERJİ TÜKETİMİNİN NEDENİ: MİLYARLARCA PARAMETRE
Büyük dil modellerinin (LLM) yüksek enerji tüketiminin arkasında, bu modellerin sahip olduğu devasa parametre sayısı yatıyor.
Örneğin, GPT-4’ün bir trilyondan fazla parametre içerdiği tahmin ediliyor. Bu parametreler, modelin verilerdeki desenleri öğrenmesine olanak tanırken dünya genelindeki büyük veri merkezlerinde, GPU adı verilen güçlü çipler üzerinde işlem görmektedir.
TÜM YAPAY ZEKALAR EŞİT DEĞİL: 50 KATA VARAN FARK VAR
Haziran ayında yayımlanan bir çalışmada, 14 farklı açık kaynaklı yapay zeka modelinin enerji tüketimi incelendi ve aralarındaki farkların oldukça büyük olduğu belirlendi.
Araştırma sonuçlarına göre, bazı modeller, diğerlerine kıyasla 50 kata kadar daha fazla karbondioksit emisyonuna yol açabiliyor. Özellikle karmaşık akıl yürütme gerektiren görevler için tasarlanan modeller, standart modellere göre çok daha fazla enerji harcıyor.
KULLANICILAR ENERJİ TÜKETİMİNİ NASIL AZALTABİLİR
Yapay zekanın çevresel etkilerini azaltmak için kullanıcıların atabileceği bazı önlemler mevcut.
Her görev için en uygun modeli seçmek, basit işlemler için enerji tüketimi yüksek olan “akıl yürütme” modellerinin kullanılmaması, önemli bir tasarruf sağlayabilir.
Uzmanlar, sorgularda “lütfen” ve “teşekkür ederim” gibi ek ifadelerden kaçınılmasını öneriyor; bu tür kelimeler bile işlem yükünü artırarak enerji maliyetini yükseltebiliyor.