22 Kasım 2024
  • Lefkoşa16°C
  • Mağusa17°C
  • Girne18°C
  • Güzelyurt14°C
  • İskele17°C
  • İstanbul17°C
  • Ankara13°C

CHATGPT YARATICISINDAN ENDİŞE VERİCİ AÇIKLAMA: DURDURAMAYACAĞIZ

ChatGPT yaratıcılarından Sam Altman, yapay zekâ ile ilgili endişe verici açıklamalarda bulundu. Altman, yapay zekânın insanlığın var oluşunu tehdit edebileceğini ve buna karşı bir şey yapılamayacağını söylüyor.

ChatGPT yaratıcısından endişe verici açıklama: Durduramayacağız

24 Mayıs 2023 Çarşamba 21:30

Son zamanların gözde teknolojilerinden yapay zekâ tartışma konusu olmaya devam ediyor. Özellikle ChatGPT’nin yükselişi ve yapay zekânın pek çok alanda kullanılması yeni bir geleceği müjdelerken pek çok teknoloji uzmanının da endişelenmesine neden oldu.

Elon Musk öncülüğünde teknolojinin önde gelen isimleri yapay zekânın bir süre durdurulması gerektiğini söylerken, ChatGPT yaratıcılarından Sam Altman da bu konudaki düşüncelerini dile getirdi. Altman’a göre yapay zekâ, varoluşsal bir risk haline gelecek ve insanlar bunu durduramayacak.

KATI KURALLAR GEREKİYOR

ChatGPT’nin yaratıcıs OpenAI’nin CEO’su olan Altman, yapay zekânın bir süper zekâya dönüşmesinin neredeyse kesin olduğu konusunda uyarırken, insanlığın bunu durduramayacağını ancak bazı katı kurallar koyulabileceğini söyledi.

Altman’a göre; gelişmiş yapay zekâ insanlık için olası bir varoluşsal risk oluşturacak. Bunun için de hükümetler, yapay zekâ tehdidini yönetmenin bir yolunu bulmalı. Altman, Uluslararası Atom Enerjisi Ajansı gibi yapay zekâyı denetlemek için küresel bir organa ihtiyaç duyulabileceğini söylüyor.

Son zamanların popüler teknoloji lideri, meslektaşlarıyla birlikte şunları yazdı: “Süper zekânın yaratılmasını durdurmak riskli ve zor. Artıları çok büyük olduğu için, onu inşa etme maliyeti her yıl düşüyor ve onu inşa edenlerin sayısı hızla artıyor. Bunu durdurmak için küresel bir gözetleme rejimi gibi bir şey gerekir ve bunun bile işe yarayacağı garanti edilmez.”

Yorumlar
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
SON DAKİKA