OpenAI’ın AGI Hazırlık Danışmanı Miles Brundage, şirketten ayrıldığını duyururken önemli bir uyarıda bulundu: Ne OpenAI ne de başka bir kuruluş, yapay genel zeka (AGI) için hazır durumda.
AGI, insan seviyesinde zekaya sahip yapay zeka olarak tanımlanırken, Brundage altı yıl boyunca OpenAI’de bu konuda güvenlik girişimlerini şekillendirmeye katkı sağladı. Ayrılma açıklamasında, “Ne OpenAI ne de diğer ileri düzey laboratuvarlar AGI’ye hazır değil, dünya da hazır değil” ifadesini kullandı. Ayrıca, bu durumun OpenAI liderliği arasında tartışmalı bir konu olmadığını ve gelecekte bu hazırlığın yapılma ihtimalinin ayrı bir konu olduğunu vurguladı.
Brundage’in bu ayrılığı, OpenAI’ın güvenlik ekiplerinden gelen önemli istifaların sonuncusu olarak dikkat çekiyor. Geçtiğimiz dönemde, önde gelen bir araştırmacı olan Jan Leike, güvenlik kültürü ve süreçlerinin “dikkat çekici ürünlerin gerisinde kaldığını” belirterek şirketten ayrılmıştı. Benzer şekilde, OpenAI’ın kurucu ortaklarından Ilya Sutskever de güvenli AGI geliştirme üzerine odaklanan kendi girişimini başlatmak üzere şirketten ayrıldı.
Bu ayrılıklar, OpenAI’ın ticari hedefleri ile ilk kuruluş misyonu arasındaki gerilimleri gözler önüne seriyor. Brundage’in “AGI Hazırlık” ekibinin dağıtılması, şirketin uzun vadeli yapay zeka risklerini azaltmayı hedefleyen “Süper Uyum” ekibini feshetmesinden sadece birkaç ay sonra gerçekleşti. OpenAI, ticari baskılarla karşı karşıya kalmış durumda; iki yıl içinde kâr amacı gütmeyen bir kuruluş statüsünden çıkarak kamu yararına hizmet eden kâr amaçlı bir şirkete dönüşmek zorunda olduğu belirtiliyor. Aksi takdirde, geçtiğimiz dönemde aldığı 6,6 milyar dolarlık yatırım fonlarını geri ödemek zorunda kalabilir.
Brundage, 2019’da OpenAI’ın ticari bölümünü kurmasından bu yana bu tür bir ticari dönüşümle ilgili endişelerini dile getiriyordu. Şirketten ayrılma sebebini açıklarken, araştırma ve yayınlama özgürlüğü üzerindeki kısıtlamaların giderek arttığını belirtti. Ayrıca, yapay zeka politikalarına dair bağımsız seslere ihtiyaç olduğuna, sanayinin çıkar çatışmalarından uzak bağımsız düşüncelerin önemine dikkat çekti. OpenAI’ın iç hazırlık süreçleri konusunda liderliği bilgilendirdiğini belirten Brundage, dışarıda kalarak küresel yapay zeka yönetimi alanında daha büyük bir etki yaratabileceğini düşünüyor.
OpenAI içindeki kültürel ayrışma devam ediyor
Bu ayrılık, OpenAI içinde derinleşen bir kültürel ayrışmayı da yansıtıyor olabilir. Birçok araştırmacı, yapay zeka araştırmalarını ilerletmek için bu şirkete katıldı; fakat zamanla kendilerini daha fazla ürün odaklı bir ortamda buldular. İç kaynakların dağıtımı da bu gerilimlerin odak noktalarından biri haline geldi. Raporlara göre, Leike’nin ekibi güvenlik araştırmaları için gerekli bilgi işlem gücünü elde edememiş ve ekip bu nedenle feshedilmişti.
Tüm bu zorluklara rağmen, Brundage, OpenAI’ın gelecekteki çalışmalarına fon, API kredileri ve model erişimi gibi destekler teklif ettiğini, ancak bu tekliflerin herhangi bir koşula bağlı olmadığını belirtti.
Bir yanıt yazın