MIT profesörü ve yapay zekâ güvenliği savunucusu Max Tegmark, süper zekâlı sistemlerin (ASI) insan kontrolünden çıkma ihtimaline karşı, nükleer testlerden önce yapılan güvenlik hesaplarına benzer analizlerin yapılması çağrısında bulundu.
Tegmark, bu olasılığı tanımlamak için "Compton sabiti" adını verdiği bir ölçüm önerdi.
Tıpkı 1945'teki Trinity nükleer testi öncesinde Arthur Compton’un yaptığı gibi, şirketlerin de yapay süper zekânın kontrolden çıkma ihtimalini matematiksel olarak hesaplaması gerektiğini vurgulayan Tegmark, bu ihtimali %90 gibi ciddi bir risk düzeyinde görüyor.
“Artık hisler değil, sayılar konuşmalı” diyen Tegmark, bu sabitin farklı firmalarca hesaplanıp üzerinde uzlaşılması durumunda küresel yapay zekâ güvenlik protokollerinin oluşabileceğini savunuyor.
Bu çağrı, ChatGPT’nin ardından hız kazanan “kontrolsüz yapay zekâ yarışı”nın yol açabileceği varoluşsal tehditlere karşı önlem alınması gerektiği yönündeki artan uyarıların son halkası.
Tegmark, OpenAI ve Google DeepMind gibi öncü şirketlerin katkısıyla yayımlanan “Singapore Consensus” raporuyla, güvenli yapay zekâ gelişimi için üç öncelikli araştırma alanını belirledi:
Mevcut ve gelecekteki sistemlerin etkisini ölçmek,
Yapay zekâ davranışlarını net şekilde tanımlamak ve yönlendirmek,
Sistem davranışlarını yönetmek ve kontrol altında tutmak.
Nükleer risk gibi! Korkutan yapay zeka uyarısı!
MIT profesörü ve yapay zekâ güvenliği savunucusu Max Tegmark, süper zekâlı sistemlerin (ASI) insan kontrolünden çıkma ihtimaline karşı, nükleer testlerden önce yapılan güvenlik hesaplarına benzer analizlerin yapılması çağrısında bulundu.
MIT profesörü ve yapay zekâ güvenliği savunucusu Max Tegmark, süper zekâlı sistemlerin (ASI) insan kontrolünden çıkma ihtimaline karşı, nükleer testlerden önce yapılan güvenlik hesaplarına benzer analizlerin yapılması çağrısında bulundu.
Tegmark, bu olasılığı tanımlamak için "Compton sabiti" adını verdiği bir ölçüm önerdi.
Tıpkı 1945'teki Trinity nükleer testi öncesinde Arthur Compton’un yaptığı gibi, şirketlerin de yapay süper zekânın kontrolden çıkma ihtimalini matematiksel olarak hesaplaması gerektiğini vurgulayan Tegmark, bu ihtimali %90 gibi ciddi bir risk düzeyinde görüyor.
“Artık hisler değil, sayılar konuşmalı” diyen Tegmark, bu sabitin farklı firmalarca hesaplanıp üzerinde uzlaşılması durumunda küresel yapay zekâ güvenlik protokollerinin oluşabileceğini savunuyor.
Bu çağrı, ChatGPT’nin ardından hız kazanan “kontrolsüz yapay zekâ yarışı”nın yol açabileceği varoluşsal tehditlere karşı önlem alınması gerektiği yönündeki artan uyarıların son halkası.
Tegmark, OpenAI ve Google DeepMind gibi öncü şirketlerin katkısıyla yayımlanan “Singapore Consensus” raporuyla, güvenli yapay zekâ gelişimi için üç öncelikli araştırma alanını belirledi:
Mevcut ve gelecekteki sistemlerin etkisini ölçmek,
Yapay zekâ davranışlarını net şekilde tanımlamak ve yönlendirmek,
Sistem davranışlarını yönetmek ve kontrol altında tutmak.
TEKNOLOJİ Haberleri
28.10.2025 - 16:21
28.10.2025 - 13:25
28.10.2025 - 13:13
13.10.2025 - 17:01
13.10.2025 - 16:57
26.09.2025 - 15:42
26.09.2025 - 13:03
22.09.2025 - 13:46
22.09.2025 - 13:00
17.09.2025 - 12:13