İtirafçı "Dünya buna hazır değil" diyerek uyardı: İnsanlığı yok etme riski yüzde 70!

OpenAI içerisinden bir kişi, yapay zekanın insanlığı yok etme ya da feci şekilde zarar verme ihtimalinin yüzde 70 olduğunu söyleyerek uyardı: Dünya buna hazır değil, biz hazır değiliz.

İtirafçı "Dünya buna hazır değil" diyerek uyardı: İnsanlığı yok etme riski yüzde 70!
İtirafçı "Dünya buna hazır değil" diyerek uyardı: İnsanlığı yok etme riski yüzde 70!
GİRİŞ 11.06.2024 13:34 GÜNCELLEME 11.06.2024 13:34
Bu Habere 14 Yorum Yapılmış

Eski ve mevcut OpenAI çalışanlarının güvenlik sorunlarını dile getirdikleri için susturulduklarını iddia eden açık bir mektup yayınlamalarının ardından, mektubu imzalayanlardan biri daha da korkutucu bir tahminde bulundu: yapay zekanın insanlığı yok etme ya da feci şekilde zarar verme olasılığı yazı tura atmaktan daha büyük.

OPENAI'I OLUŞTURDUĞU RİSKLERİ GÖRMEZDEN GELMEKLE SUÇLADI

Eski OpenAI yönetim araştırmacısı Daniel Kokotajlo, The New York Times'a verdiği bir röportajda şirketi, karar vericileri yapay genel zekânın (AGI) sunduğu olanaklardan çok etkilendikleri için yapay genel zekânın oluşturduğu muazzam riskleri görmezden gelmekle suçladı.

Kokotajlo, "OpenAI, AGI'yi inşa etme konusunda gerçekten heyecanlı" dedi ve ekledi: "Bu konuda ilk olmak için pervasızca yarışıyorlar."

"YAPAY ZEKANIN İNSANLIĞI YOK ETME RİSKİ YÜZDE 70"

Kokotajlo'nun gazeteye yaptığı en keskin iddia ise, yapay zekanın insanlığı mahvetme ihtimalinin yüzde 70 civarında olduğuydu.

Yapay zekanın insanlığın sonunu getirme olasılığını ifade eden "p(doom)" terimi, makine öğrenimi dünyasında sürekli tartışılan bir konudur.

31 yaşındaki Kokotajlo NYT'ye verdiği demeçte, 2022 yılında OpenAI'ye katıldıktan ve kendisinden teknolojinin ilerleyişini tahmin etmesi istendikten sonra, yalnızca endüstrinin 2027 yılına kadar AGI'ye ulaşacağına değil, aynı zamanda bunun insanlığa feci şekilde zarar verme ve hatta yok etme olasılığının büyük olduğuna ikna olduğunu söyledi.

BÜYÜK RİSKE KARŞI BİRLİK OLDULAR

Açık mektupta belirtildiği üzere Kokotajlo ve yoldaşları -ki aralarında Google DeepMind ve Anthropic'in eski ve mevcut çalışanlarının yanı sıra geçen yıl benzer kaygılar nedeniyle Google'dan ayrılan "Yapay Zekanın Babası" Geoffrey Hinton da bulunuyor- yapay zekanın oluşturduğu riskler konusunda kamuoyunu "uyarma haklarını" savunuyorlar.

Kokotajlo, yapay zekanın insanlık için büyük riskler oluşturduğuna o kadar ikna oldu ki, sonunda OpenAI CEO'su Sam Altman'a şirketin "güvenliğe dönmesi" ve teknolojiyi daha akıllı hale getirmeye devam etmek yerine onu dizginlemek için korkulukları uygulamaya daha fazla zaman harcaması gerektiğini bizzat söyledi.

SAM ALTMANIN DÜŞÜNCELERİ ZAMANLA DEĞİŞTİ: DİLEDİĞİ GİBİ DAVRANIYOR

Altman, eski çalışanın anlattığına göre, o zamanlar onunla aynı fikirdeymiş gibi görünüyordu, ancak zamanla bu sadece sözde bir hizmet gibi geldi.

Bıkan Kokotajlo, Nisan ayında firmadan ayrıldı ve ekibine gönderdiği bir e-postada, OpenAI'nin insan seviyesine yakın yapay zeka oluşturmaya çalışırken "sorumlu davranacağına dair güvenini kaybettiğini" söyledi.

"DÜNYA HAZIR DEĞİL, BİZ DE HAZIR DEĞİLİZ"

NYT ile paylaşılan e-postasında "Dünya hazır değil, biz de hazır değiliz" diyerek ekledi "Ve her şeye rağmen acele etmemizden ve eylemlerimizi rasyonalize etmemizden endişe duyuyorum."

Şirket bu haberin yayınlanmasının ardından yaptığı açıklamada, "En yetenekli ve en güvenli yapay zeka sistemlerini sağlama konusundaki geçmişimizle gurur duyuyoruz ve riski ele alma konusundaki bilimsel yaklaşımımıza inanıyoruz" dedi.

"Bu teknolojinin önemi göz önüne alındığında titiz bir tartışmanın çok önemli olduğu konusunda hemfikiriz ve hükümetler, sivil toplum ve dünyanın dört bir yanındaki diğer topluluklarla iletişim kurmaya devam edeceğiz."

ŞİRKET ISRARLA GÜVENSİZ BİR DURUMUN OLMADIĞINI BELİRTİYOR

Açıklamanın devamında, "Bu nedenle, çalışanlarımızın endişelerini dile getirmeleri için anonim bir dürüstlük hattı ve yönetim kurulu üyelerimiz ile şirketin güvenlik liderleri tarafından yönetilen bir Güvenlik ve Emniyet Komitesi de dahil olmak üzere yollarımız var" denildi.

KAYNAK: HABER7
Ekrem Öztürk Haber7.com - Teknoloji Muhabiri
Haber 7 - Ekrem Öztürk

Editör Hakkında

İstanbul'da yaşayan Ekrem Öztürk, 2021 yılında Medya ve İletişim bölümünden mezun oldu. Uzun süre kendi alanında metin yazarlığı yapan Öztürk, şu an Haber7.com'da "Muhabir - Editör" olarak görev yapmaktadır. Ayrıca günümüz insan ilişkilerinde saygının ve empatinin çok büyük bir güç olduğuna inanmakta ve bu değerleri meslek hayatında da ön planda tutmaktadır.
YORUMLAR 14
  • ARD 7 ay önce Şikayet Et
    Yapay zekayı yıllardır kullanıyorlar zaten, şuan salmalarının nedeni büyük olasılıkla çin'in son yıllarda kendi yapay zeka teknolojisini yoğun olarak kullanarak baya ilerlemesidir. Dünyanın geri kalanını çin'e karşı dengelemek için mühimmat dağıttıklarını düşünebilirsiniz.
    Cevapla
  • ismail 7 ay önce Şikayet Et
    OpenAI içerisinden bir kişi :)
    Cevapla
  • Doğal zeka 7 ay önce Şikayet Et
    Kes elektereki bo kadar yav
    Cevapla
  • mehmet 7 ay önce Şikayet Et
    yapay zekaya hükmedenler insanlığıda hükmetmek için bir çaba içindeler.
    Cevapla
  • Yousefe 7 ay önce Şikayet Et
    Bünyamin Amcanız zaten yok ediyor ki.
    Cevapla
Daha fazla yorum görüntüle
DİĞER HABERLER
Feci yangında hayatını kaybeden genç kız hakkında kahreden detay! Farklı yöne gidince...
"Tarihteki en büyük yatırım" diyerek duyurdu! 500 milyar dolar harcanacak