Eski OpenAI Araştırmacısı: “AI’nin Hızlı Gelişimi Korkutucu Bir Risk Taşıyor”

  • Eski OpenAI güvenlik araştırmacısı Steven Adler, AI’nin hızla gelişmesini “korkutucu” olarak nitelendirdi.
  • Adler, AGI yarışının insanlık için “çok riskli bir kumar” olduğunu vurguladı.

Eski OpenAI güvenlik araştırmacısı Steven Adler, yapay zekanın gelişim hızından duyduğu derin endişeyi dile getirdi. X platformunda yaptığı paylaşımlarda, AGI (Yapay Genel Zeka) geliştirme yarışının insanlık için büyük riskler taşıdığını ve sektörün güvenlik sorunlarına yeterince zaman ayıramadığını savundu. AI’nin hızla ilerlemesi, insan kontrolünü aşma riskini artırıyor ve bu durum, Nobel ödüllü Geoffrey Hinton gibi uzmanlar tarafından da dile getiriliyor.

Adler, AI sistemlerinin insan değerlerine uyum sağlaması için gerekli olan “AI hizalama” sürecinin henüz çözülemediğini belirtti. OpenAI’nin temel hedeflerinden biri AGI geliştirmek olsa da, Adler’e göre AI şirketleri, güvenlikten ödün vererek bir yarış içine girdi. “Ne kadar hızlı ilerlersek, güvenlik çözümü bulma ihtimalimiz o kadar azalıyor” diyen Adler, gerçekçi güvenlik düzenlemeleri olmazsa sektörün tehlikeli bir noktaya sürükleneceğini ifade etti.

Çin merkezli DeepSeek’in OpenAI’ye rakip olacak AI modeli geliştirmesi, teknoloji dünyasında büyük yankı uyandırdı. Daha az kaynakla geliştirilen DeepSeek modeli, AI yarışını hızlandırarak güvenlik risklerini daha da artırabilir. Adler, şirketlerin etik ve güvenlik konularında daha sorumlu hareket etmesi gerektiğini ve rekabetin güvenlik standartlarını düşürmemesi gerektiğini vurguladı. AI sektöründeki bu hızlı gelişim, bazı uzmanlar tarafından insanlığın geleceğini tehdit eden bir unsur olarak görülürken, diğerleri ise AI’nin insanlığı kurtarabileceğini savunuyor. Ancak Adler’e göre, sektör şu an “kötü bir denge” içinde ve düzenlemeler olmadan AI’nin kontrolden çıkma riski çok yüksek.

ETİKETLENDİ:
KAYNAKLAR:The Guardian
Bu İçeriği Paylaş