Ekonomi

Yapay Zeka Enerji Tüketiminde Şaşırtıcı Veriler Ortaya Çıkıyor

Yapay zeka (AI) teknolojilerinin hızla evrim geçirmesi, birçok alanda önemli yenilikler ve kolaylıklar sağlamakta. Ancak, bu teknolojilerin artan kullanımı, enerji tüketimi ve çevresel etkileri hakkında kaygıları da beraberinde getiriyor. Özellikle büyük veri merkezlerinde çalışan AI uygulamaları, yüksek enerji tüketimi ile gündeme gelmekte ve bu durum çevresel sürdürülebilirlik açısından tartışmalara yol açmaktadır.

AI modellerinin eğitim ve çalıştırılması sırasında harcanan enerji miktarı, günlük yaşamda kullandığımız ev aletleri ve otomobiller ile karşılaştırılabilir seviyelere ulaşabiliyor. Yapay zekanın enerji tüketimi konusundaki endişeler, AI şirketlerinin ve düzenleyicilerin bu teknolojilerin çevresel etkilerini minimize etmek için aldıkları önlemler üzerine tartışmaları da tetiklemektedir.

Bu yazıda, yapay zeka uygulamalarının enerji tüketimi ile ilgili güncel tartışmaları ele alacak ve bu teknolojilerin çevresel etkilerini anlamak için ne gibi adımlar atılabileceğini inceleyeceğiz. Özellikle ChatGPT‘nin enerji tüketimi ile ilgili yapılan son analizler oldukça önemli bir yere sahip.

YENİ ARAŞTIRMALAR FARKLI GÖRÜŞLER SUNUYOR

OpenAI tarafından geliştirilen ChatGPT, beklenenden daha az enerji tüketiyor olabilir. Ancak bu durum, ChatGPT’nin kullanım şekline ve sorulara yanıt veren yapay zeka modellerine bağlı olarak değişiklik göstermektedir. Yeni bir çalışma, AI modellerinin enerji tüketiminin, genel algının tersine, bazı ev aletlerinden daha düşük olabileceğini ortaya koydu.

ENERJİ TÜKETİMİ ÜZERİNE YAPILAN ANALİZLER

Epoch AI adlı kar amacı gütmeyen bir araştırma enstitüsü, tipik bir ChatGPT sorgusunun enerji tüketimini hesaplamaya çalıştı. Yaygın olarak belirtilen bir istatistik, ChatGPT’nin bir soruya yanıt vermek için yaklaşık 3 watt-saat enerji gerektirdiğini öne sürüyor, bu da Google aramalarından 10 kat daha fazla enerji demek.

Ancak Epoch, bu tahminin aşırı olduğunu düşünmekte. En son varsayılan model olan GPT-4o kullanarak, bir ChatGPT sorgusunun ortalama enerji tüketiminin yaklaşık 0.3 watt-saat olduğunu buldular. Bu değer, birçok ev aletinin tüketiminden daha az bir miktar.

YAPAY ZEKANIN ÇEVRESEL ETKİLERİ ÜZERİNE TARTIŞMALAR

AI’nin enerji kullanımı ve çevresel etkileri, AI şirketleri altyapılarını hızla genişletmeye çalışırken tartışmalı bir konu haline geliyor. Geçtiğimiz hafta, 100’den fazla kuruluş, AI endüstrisinin ve düzenleyicilerin, yeni AI veri merkezlerinin doğal kaynakları tüketmemesi ve enerji şirketlerini yenilenemeyen enerji kaynaklarına bağımlı hale getirmemesi için bir açık yayımladı.

Epoch’ta veri analisti olan Joshua You, analizinin bazı güncel olmayan çalışmalar tarafından tetiklendiğini belirtti. Örneğin, 3 watt-saat tahminine ulaşan raporun yazarının, OpenAI’nin modellerini çalıştırmak için daha eski ve daha az verimli çipler kullandığını varsaydığını ifade etti. You, “AI’nin gelecekte yüksek enerji tüketeceğini belirten birçok kamuoyu tartışması gördüm, ancak bugünkü AI’nin enerji tüketimini tam olarak tanımlamakta zorlanıyoruz” şeklinde konuştu.

Epoch’un 0.3 watt-saatlik tahmini de bir kestirim olduğunu ve kesin hesaplamalar için gerekli bilgilere OpenAI’nin sahip olduğunu kabul etti. Ayrıca, ChatGPT’nin görüntü oluşturma veya girdi işleme gibi ek özelliklerinin enerji maliyetlerini de göz önünde bulundurmadığını belirtti. You, “Uzun girdi” ChatGPT sorgularının, örneğin uzun dosyaların eklendiği sorguların, tipik bir soruya göre daha fazla enerji tükettiğini kabul etti.

GELECEKTEKİ ENERJİ TAHMİNLERİ

You, temel ChatGPT enerji tüketiminin artmasını beklediğini belirterek, “AI daha ileri hale gelecek, bu da AI’yi eğitmenin muhtemelen çok daha fazla enerji gerektireceği anlamına geliyor. Gelecek nesil AI, insanların bugün ChatGPT’yi kullanma biçiminden çok daha yoğun bir şekilde kullanılabilir hale gelecek; daha karmaşık görevleri yerine getirecek ve daha fazla veri oluşturacak, bu da daha fazla veri merkezi gerektirecek” ifadelerini kullandı.

Son aylarda AI verimliliğinde kaydedilen gelişmelere rağmen, AI’nin konuşlandırıldığı ölçeğin enerji tüketen altyapı genişlemelerini artırması bekleniyor. Önümüzdeki iki yıl içinde, AI veri merkezleri, California’nın 2022 güç kapasitesinin (68 GW) neredeyse tamamına ihtiyaç duyabilir. 2030 yılına kadar, bir öncü modeli eğitmek için gereken enerji, sekiz nükleer reaktörüne (8 GW) eşdeğer güç çıktısı gerektirebilir.

ChatGPT’nin büyük ve giderek artan bir kullanıcı kitlesine ulaşması, sunucu taleplerini benzer şekilde artırıyor. OpenAI, birkaç yatırım ortağıyla birlikte, önümüzdeki yıllarda yeni AI veri merkezi projelerine milyarlarca dolar yatırmayı planlıyor.

OpenAI’nin dikkatinin – diğer AI endüstrisi gibi – daha fazla hesaplama gerektiren, ancak daha karmaşık görevleri yerine getirebilen akıl yürütme modellerine kaydığı görülüyor. GPT-4o gibi modeller, sorgulara neredeyse anında yanıt verirken, akıl yürütme modellerinin yanıt vermeden önce saniyeler ila dakikalar arasında “düşünmesi” gerekiyor; bu da daha fazla enerji talep ediyor.

OpenAI, o3-mini gibi daha enerji verimli akıl yürütme modellerini piyasaya sürmeye başladı. Ancak, bu aşamada, verimlilik kazançlarının, akıl yürütme süreçlerinin ve artan AI kullanımı nedeniyle büyüyen enerji taleplerini dengelemesi zor görünüyor.

ENERJİ AYAK İZİNİ AZALTMA ÇABALARI

You, AI enerji ayak izinden endişe duyanların, ChatGPT gibi uygulamaları nadiren kullanmalarını veya daha az hesaplama gerektiren modelleri tercih etmelerini önerdi. “Daha küçük AI modelleri kullanmayı deneyebilirsiniz, örneğin OpenAI’nin GPT-4o-mini gibi. Ancak, büyük miktarda veri işlemesi veya oluşturması gereken durumlarda bunları nadiren kullanmanızı öneririm” dedi.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu