Güvenli değil dedi! OpenAI çalışanı istifa etti

Güvenli değil dedi! OpenAI çalışanı istifa etti

OpenAI araştırmacısı güvenlik süreçlerinin geri plana atıldığı iddiasıyla gündeme oturdu, güvenli olmadığını söyleyerek istifa etti.

Yapay zeka devi OpenAI, güvenliğin hiçe sayıldığı iddiasıyla gündem oldu. OpenAI için çalışan önemli araştırmacılarından Jan Leike, güvenlik süreçlerinin ve kültürünün “parlak ürünler” (tutacak ürünler) uğruna geri planda bırakıldığını ve artık güvenli olmadığını söyleyerek istifa etti. İşte olayın detayları…

OpenAI araştırmacısı ‘güvenlik yok’ diyerek istifa etti

Jan Leike, geçtiğimiz hafta başında görevinden ayrıldığını duyurmuştu. Leike, “Superalignment” (parlak ürünler) ekibinin başındaydı ve bu ekip, OpenAI’nin insan gibi düşünebilen yapay zeka geliştirmeye çalışırken güvenlik protokollerini uygulamadaki ana teknik zorlukları çözmek için kurulmuştu. Ancak, Wired’ın haberine göre OpenAI bu ekibi tamamen dağıtmış. Peki ama neden?

Leike, Twitter’da yaptığı açıklamalarda, “Son yıllarda güvenlik kültürü ve süreçleri, parlak ürünler uğruna geri plana atıldı” dedi. Bu açıklamalar, OpenAI içindeki artan gerilimleri ve yapay zekanın yaratabileceği potansiyel tehlikeleri yönetme konusundaki endişeleri gözler önüne serdi. Leike, ekibinin “kritik” çalışmaları gerçekleştirmek için güvenlik gerektiren kaynaklara erişemediğini ve bu durumun sonunda istifasını getirdiğini belirtti.

OpenAI şirketinin yapay zeka güvenliği artık Jan Leike’dan sorulmayacak. Leike’nin geride bıraktığı görevleri, daha önce Sam Altman’ı destekleyen başka bir OpenAI kurucusu olan John Schulman devralacak. OpenAI’da güvenlik tehlikesi ile oluşan ofis içi çatışmaların, yapay zeka dünyasında büyük yankı uyandırması pek şaşırtıcı değil. Sonuçta OpenAI, yapay zeka’ya yön veren birkaç şirketten biri.

Leike istifa ettikten sonraki açıklamalarında, OpenAI’ın yapay zekanın yaratacağı güvenlik dışı ve tehlikeli olacak sonuçlarla ilgili ciddi bir şekilde hazırlanması gerektiğini vurguladı. Leike, “Ancak o zaman yapay zekanın tüm insanlık için faydalı olmasını sağlayabiliriz” dedi. Bu olaylarla birlikte, OpenAI’nin güvenlik politikalarının ne derece dikkate aldığı sorgulanıyor.

OpenAI’daki bu olay, şirketlerin yapay zeka alanındaki güvenlik önlemlerini nasıl alacaklarını yeniden düşünmemize neden oldu. Peki siz ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

1 × 5 =