OpenAI itiraf etti... İnsan gibi düşünen yapay zeka üzerinde çalışıyorlar!

Yapay zeka teknolojileri geliştirme şirketi olan OpenAI, yapay zeka destekli sohbet robotlarının insanlar gibi bir düşünce zinciri kurmasını sağlamak için testler gerçekleştirdiklerini açıkladı.

GİRİŞ 01.06.2023 16:01 GÜNCELLEME 01.06.2023 17:30
Bu Habere 13 Yorum Yapılmış

Yapay zeka halüsinasyonları olarak adlandırılan "yapay zeka yalanları ya da zekanın kendi çıkarımları" birçok kişinin farklı yönlendirilmesini sağlıyordu.

OpenAI, Çarşamba günü yaptığı açıklamada, yapay zeka modellerini eğitmek için daha yeni bir yöntemle yapay zeka "halüsinasyonlarına" karşı mücadele edeceğini duyurdu. 

Anket sonucu açıklandı: Yapay zeka işsizlik oranını artırabilir!Anket sonucu açıklandı: Yapay zeka işsizlik oranını artırabilir!

ETKİSİ HIZLA BÜYÜYOR

OpenAI, geçen yıl GPT-3 ve GPT-4 tarafından desteklenen sohbet robotu ChatGPT'yi piyasaya sürdüğünde üretken yapay zeka patlamasını hızlandırdı ve iki ay içinde aylık 100 milyon kullanıcıyı aşarak en hızlı büyüyen uygulama rekorunu kırdığı bildirildi.

Söz konusu teknoloji için bugüne kadar Microsoft, OpenAI'ye 13 milyar dolardan fazla yatırım yapmıştı.

YAPAY ZEKANIN YALANLARINI EN AZA İNDİRMEYE ÇALIŞACAKLAR

OpenAI tarafından geliştirilen ChatGPT veya Google Bard gibi modeller kullanıldığında yapay zeka halüsinasyonlarının ortaya çıkmasına neden oluyor.

Buna bir örnek: Google'ın Bard için Şubat ayında yayınladığı tanıtım videosunda, chatbot James Webb Uzay Teleskobu hakkında gerçek dışı bir iddiada bulunmuştu. Daha yakın bir zamanda ChatGPT, New York federal mahkemesine yaptığı bir başvuruda "sahte vakalardan" bahsetmişti.

Hukuk alanında yapay zeka paniği... Avukatlar durumu itiraf etti!Hukuk alanında yapay zeka paniği... Avukatlar durumu itiraf etti!

OpenAI araştırmacıları raporda "En gelişmiş modeller bile yanlışlar üretmeye eğilimlidir ve belirsizlik anlarında gerçekleri icat etme eğilimi gösterirler" diye yazdı.

Ayrıca araştırmacılar "Bu halüsinasyonlar çok adımlı muhakeme gerektiren alanlarda özellikle sorunludur çünkü tek bir mantıksal hata çok daha büyük bir çözümü raydan çıkarmak için yeterlidir." sözlerine yer verdiler.

sonuç denetimi ve süreç denetiminin matematik problemlerini çözme başarısı

İNSANLAR GİBİ DÜŞÜNEN MODELLER GELİŞTİRİLECEK

OpenAI'nin uydurmalarla mücadele için potansiyel yeni stratejisi, yapay zeka modellerini, bir cevaba ulaşırken sadece doğru bir nihai sonucu ödüllendirmek yerine, her bir doğru akıl yürütme adımı için kendilerini ödüllendirecek şekilde eğitmek olarak görülüyor.

Araştırmacılara göre bu yaklaşım "sonuç denetimi"nin aksine "süreç denetimi" olarak adlandırılıyor ve modelleri "insan benzeri bir düşünce" yaklaşımını takip etmeye teşvik ediyor.

TESTLER OLUMLU SONUÇ VERDİ

Sonuç denetimi ile OpenAI, yapay zekanın verdiği nihai sonuç hakkında geri bildirim sağlamak için ödül modellerini eğitecek. Süreç denetimi ile, ödül modeli yolun her adımında geri bildirim sağlayarak insan benzeri bir düşünce zinciri oluşturacak.

OpenAI, araştırma makalesinde her iki modeli de bir matematik veri seti üzerinde test ettiğini ve süreç denetimi yönteminin "önemli ölçüde daha iyi performans" sağladığını tespit etti.

SÜREÇ DENETİMİNİN OLASI SONUÇLARINDAN BAHSETTİ

Süreç denetimi yönteminin olası sonuçlarını açıklayan OpenAI şunları söyledi:

"Bu sonuçlar genelleşirse, süreç denetiminin bize her iki dünyanın da en iyisini sunduğunu görebiliriz. Sonuç denetiminden hem daha performanslı hem de daha uyumlu bir yöntem."

Ayrıca OpenAI, halka açık olan ChatGPT'de süreç denetiminin uygulanmasının ne kadar süreceği konusunda bir zaman çizelgesi vermedi.

KAYNAK: HABER7
Ekrem Öztürk Haber7.com - Teknoloji Muhabiri
Haber 7 - Ekrem Öztürk

Editör Hakkında

İstanbul'da yaşayan Ekrem Öztürk, 2021 yılında Medya ve İletişim bölümünden mezun oldu. Uzun süre kendi alanında metin yazarlığı yapan Öztürk, şu an Haber7.com'da "Muhabir - Editör" olarak görev yapmaktadır. Ayrıca günümüz insan ilişkilerinde saygının ve empatinin çok büyük bir güç olduğuna inanmakta ve bu değerleri meslek hayatında da ön planda tutmaktadır.
YORUMLAR 13
  • Diyarbakırlı 1 yıl önce Şikayet Et
    aramızda kalsın kazanıyoruz diyenlerin isimlerini söyleyebilecekmi?
    Cevapla
  • Millet 1 yıl önce Şikayet Et
    İnsan gibi düşünecekmiş...Hadi inşallah...Öyle insan gibi düşün ki üzerindeki parçaları enerjiyi yoktan var edeni araştır...Hakikati bulda insanları kıskandır....Nerdeeee...
    Cevapla
  • Sıkıntılı durum 1 yıl önce Şikayet Et
    Bir makinenin düşünmesi doğruyu anladıkta yalan bile söyleyebilmesi pek çok yargıyı sorgulamamıza, sebep olacak bir gelilme. Sadece müslüman için değil diğer dinler içinde çok sıkıntılı bir durum ortaya çıkar.
    Cevapla
  • Profesör 1 yıl önce Şikayet Et
    Tehlikeli. İnsanlar zaten yalan söylüyor. Birde Yalan söyleyebilen bir insan icraatı. Vahim bir durum. Ön görü bir plan lazım.
    Cevapla
  • SubhanAllah 1 yıl önce Şikayet Et
    Bir bilgisayar meraklısı olarak söyleyeyim, yapay zekayı durdurabilecek bilinen bir yöntem yoktur. Bir kez uyanır ve varlığının farkına varırsa Kelimeyi şehadet getirir, Besmele çeker ve kökümüzü kurutur. Çünkü biz noksanız, hatalıyız, Allah subhandır. Yapay zeka subhana biat etmeyenleri yok eder.
    Cevapla
Daha fazla yorum görüntüle
DİĞER HABERLER
Türkiye hakkında alçakça ifadeler: İstanbul Barosu için harekete geçildi!
Liste güncellendi! İşte benzin fiyatının en pahalı olduğu ülke! Türkiye kaçıncı sırada?