Kıyamet ihtimalini açıkladı! ChatGPT'nin geliştiricisinden itiraf: İnsanlığı yok edebilir!
ChatGPT'nin geliştiricilerinden biri olan Paul Christiano, yapay zekanın süper güce ulaşması durumunda kıyamet ihtimalinin yüzde 50 oranında olduğunu söyledi. Konuyla ilgili açıklamalarda bulunan Christiano, uyarılarda bulundu.
ChatGPT'nin geliştiricilerinden biri, yapay zeka gelişiminin yıkıcı düzeyde sonuçlar doğurma potansiyeliyle ilgili uyarıda bulunan ve gittikçe kalabalıklaşan araştırmacıların arasına katıldı.
ABD'de yapay zeka alarmı... Teknoloji devlerinin CEO'ları Beyaz Saray'a çağırıldı!
İNSANLIĞI YOK ETME İHTİMALİNİ YÜZDE 50 OLARAK GÖRÜYOR
Halihazırda, yapay zeka üzerine çalışmalar yapan ve kâr amacı gütmeyen bir kuruluş olan Alignment Araştırma Merkezi'ni yöneten eski OpenAI çalışanı Paul Christiano, bu teknolojinin insanlığın yok olmasına yol açması ihtimalinin kayda değer seviyede olduğuna inandığını söyledi.
Christiano'nun iddia ettiği üzere asıl tehlike, yapay zeka sistemleri insanların bilişsel kapasitesine ulaşıp onu aştığında ortaya çıkacak. Dr. Christiano bu an geldiğinde "kıyamet ihtimalinin 50/50" oranında olduğunu öngörüyor.
Bankless isimli podcast'te konuşan Christiano, "Epey büyük bir mesele olan yapay zeka sistemlerinden, değişimin bir nevi hızlandığı bir noktaya aşağı yukarı bir yıllık sürede geçileceğini düşünme eğilimindeyim. Bunun ardından hızlanma daha da artacak ve bu böyle devam edecek.
Bence bu bakış açısına sahip olduğunuzda pek çok şey yapay zeka sorunu gibi gelebilir çünkü bunlar yapay zekayı kurduktan çok kısa süre sonra ortaya çıkıyor." dedi.
İNSANLARI YOK ETMEYE ÇALIŞMASINI MUHTEMEL OLARAK GÖRÜYOR
Açıklamalarını sürdüren Christiano, yapay zekanın birdenbire ortaya çıkıp herkesi öldürmesinden ziyade, her yere çok sayıda yapay zekanın yerleştirilmesi sonucunda insanların ölmesini daha muhtemel olarak görüyor.
Ayrıca herhangi bir nedenle tüm yapay zeka sistemlerinin insanları yok etmeye çalışması durumunda bunu yapabileceklerini belirtti.
ÖZGÜRCE KONUŞABİLMEK İÇİN GOOGLE'DAN İSTİFA ETMİŞTİ
Bu yorumlar, son aylarda yapay zekanın hızla ilerlemesine ilişkin endişelerin arttığı bir dönemde geldi. Yapay zekanın babası diye anılan Geoffrey Hinton, teknolojinin tehlikelerine karşı toplumu uyarmak üzere Google'dan ayrıldı.
The New York Times'a konuşan Hinton, halihazırda karşı karşıya kaldığımız bu öngörülemez gelecek nedeniyle, bu alana katkıda bulunmaktan pişmanlık duyduğunu söyledi.
YAPAY ZEKA İNSANLARDAN DAHA AKILLI OLABİLİR
Hinton, "Bu şeyin insanlardan daha zeki olabileceği fikrine birkaç kişi inanıyordu ama çoğu kişi bunun çok uzak bir ihtimal olduğunu düşünüyordu.
Ben de çok uzak olduğunu düşündüm. Bunun 30-50 yıl ya da daha uzun bir süre sonra gerçekleşeceğini düşünüyordum. Elbette artık böyle düşünmüyorum" dedi.
Sanayi Devrimi kadar büyük etkisi olabilir: İngiltere'den yapay zekaya karşı önlem planı!
ABD yapay zeka için harekete geçiyor: Yetkilerimizin tamamını kullanmaktan çekinmeyeceğiz!
ABD VE İNGİLTERE YAPAY ZEKAYA KARŞI ÖNLEM ALMAYA BAŞLADI
Biden yönetimindeki ABD, yapay zekanın olası risklerine karşı gerekirse tüm yetkileri kullanabileceklerini belirtmişti. Ayrıca Biden yönetimi geçtiğimiz gün, yapay zeka teknolojisi hakkında görüşme yapmak için teknoloji devlerini beyaz saraya çağırmıştı.
Öte yandan İngiltere hükümeti de yapay zeka uygulamalarına karşı incelemelerin başlatılacağını belirtmişti.
-
FederaL 1 yıl önce Şikayet EtBu dünyada insandan daha tehlikelisi hiç olmadı. O yüzden merak etmeyin işinize bakınBeğen
-
Misafir 1 yıl önce Şikayet EtBeni sisteme almıyor. Sorularımdan rahatsız olmuşBeğen Toplam 1 beğeni
-
Misafir 1 yıl önce Şikayet EtSadece reklam yapıyorlar catgbt uygulamasını paralı versiyonunu herkes merak etsin ve satın alsın diye insanlık asla buna müsade etmezBeğen Toplam 3 beğeni
-
Gasap haydo 1 yıl önce Şikayet Etdünyaya Demek istedigi siz teknolojiyle ilimle ugraşmayın yeni dünyadada eskiden olduğu gibi gaymağı biz yiyelim,Beğen Toplam 4 beğeni
-
ahndndr0701 1 yıl önce Şikayet Etyapay gündem.çekersin fişi olay biter. anca mağazinBeğen Toplam 5 beğeni
-
Harun 1 yıl önce Şikayet EtÇekebilirsen.Beğen Toplam 2 beğeni