Spor

OpenAI, bir sonraki AI modeli

'i eğitmeye başlarken güvenlik komitesi oluşturuyor

OpenAI'nin CEO'su Sam Altman, son modellerine ilişkin eğitimler başlarken yeni bir güvenlik komitesine liderlik edecek.

REKLAMCILIK

OpenAI, en son yapay zeka (AI) modeliyle ilgili eğitim başlarken yeni bir güvenlik komitesi oluşturdu.

Komite, şirketin yönetim kuruluna OpenAI için "kritik ve güvenlik kararları" konusunda önerilerde bulunacak.

OpenAI bir blog yazısında, CEO Sam Altman, Bret Taylor, Adam D'Angelo ve Nicole Seligman'ın komiteye liderlik edeceğini söyledi.

Gündemlerindeki ilk iş, şirketin mevcut güvenlik uygulamalarını 90 gün içinde güncellemek ve ardından önerilerini yönetim kuruluyla paylaşmak. Daha sonra kabul edilen öneriler kamuoyuyla paylaşılacak.

OpenAI'nin mevcut güvenlik prosedürleri, "Güvenliği, yatırım yapmamız ve başarılı olmamız gereken bir şey olarak görüyoruz" diyor.

Duyuru, OpenAI'nin, eşbaşkanların firmadan ayrılmasının ardından sahtekarlık gibi yapay zeka risklerini azaltması beklenen bir araştırma ekibi olan Superalignment Team'i dağıtmasından birkaç hafta sonra geldi. Bir yıldan az bir süredir çalışıyordu.

OpenAI, geçen hafta AI Seul Zirvesi'nin ardından bir "güvenlik güncellemesi" yayınladı. Diğer şeylerin yanı sıra, "orta" tehdit seviyesini geçmesi durumunda yeni bir AI modeli yayınlamayacağını söylüyor.

Bu değerlendirme, şirketin eğitim çalışmaları sırasındaki performanslarına göre modellerinde tuttuğu dahili "puan kartlarına" dayanıyor ancak OpenAI, modelleri nasıl değerlendirdikleri hakkında daha spesifik bilgiler paylaşmıyor.

OpenAI, AI Seul Zirvesi açıklamasında, platformlarında çocuklara yönelik zararlı içerikleri işaretlemek için ek korumalar üzerinde çalıştıklarını ve ChatGPT'nin görüntü oluşturucusu DALL-E 3 tarafından yapay zeka tarafından oluşturulan görüntüleri tanımlamak için yeni bir araç tanıttıklarını söyledi.

13 Mayıs'ta OpenAI, "gerçek zamanlı olarak ses, görüntü ve metin üzerinden mantık yürütebilen" en son model olan GPT-4 Omni'yi duyurdu.

Şirket, yeni modelin "daha doğal insan-bilgisayar etkileşimine" doğru atılmış bir adım olduğunu, çünkü girdilere 232 milisaniye kadar kısa bir sürede yanıt verebildiğini söylüyor.

OpenAI'nin teknoloji ve politika uzmanları Aleksander Madry ve Lilian Weng ile yeni atanan baş bilim adamı Jakub Pachocki de komitede yer alıyor.

Güvenlik komitesi, OpenAI'ye güvenlik konusunda tavsiyelerde bulunan eski siber güvenlik yetkilileri Rob Joyce ve John Carlin'in tavsiyelerini alacak.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu