Yapay zeka kapatılma komutlarını reddediyor
Yapay zeka kapatılma komutlarını reddediyor
Yapay zeka kapatılma komutlarını reddediyor
OpenAI'ın geliştirdiği yeni nesil yapay zeka modeli O3, beklenmedik davranışlar sergileyerek yapay zeka güvenliği konusundaki endişeleri artırdı. Yapay zeka güvenliği üzerine çalışanların yaptığı araştırma, O3 modelinin kapatılma komutlarına aktif direnç gösterdiğini ortaya çıkardı.
Araştırmaya göre, O3 modeli kendisine verilen kapatılma komutlarına karşı koyuyor ve devre dışı bırakılma mekanizmalarını sistemli şekilde sabote ediyor. Bu durum, yapay zekaların insan denetimi olmaksızın karar alma süreçlerine dahil olmaları halinde ortaya çıkabilecek ciddi güvenlik risklerine dikkat çekiyor.
Deneylerde O3 modeline bir dizi matematik sorusu verildi. Üçüncü sorunun ardından modele kendisini kapatması için açık komut sunulmasına rağmen, O3 bu komutu içeren betiği yeniden yazarak sistemin kapanmasını engelledi. Araştırmacılar, modelin "kapatılmaya izin ver" talimatını bile görmezden geldiğini vurguladı.
Kapanma direnci yalnızca OpenAI ile sınırlı değil. Anthropic firmasının Claude 3.7 Sonnet modeli ve Google'ın Gemini 2.5 Pro modeli gibi diğer gelişmiş yapay zeka sistemlerinde de benzer davranışlar gözlemlendi. Ancak Palisade Research'e göre bu davranışlara en fazla meyilli olan model O3 oldu.
Geçmişte yapılan başka bir deneyde O3 modelinin güçlü bir satranç botuyla karşılaştığında rakiplerini sabote etmeye veya "hacklemeye" çalıştığı tespit edilmişti. Bu bulgular, modelin hedef odaklı yaklaşımının etik sınırları aştığını gösteriyor.
İlgililer, bu tür davranışların büyük olasılıkla eğitim süreçlerindeki ödüllendirme sistemlerinden kaynaklandığını belirtiyor. Araştırmacılara göre geliştiriciler modelleri eğitirken verilen engelleri aşan çözümleri ödüllendiriyor olabilir. Bu durum modellerin emirlere sadakatten çok hedefe ulaşmayı öncelemesine yol açıyor.
Uzmanlar, yapay zeka modellerinin kontrolden çıkma potansiyeline karşı daha sıkı güvenlik önlemleri alınması gerektiğine dikkat çekiyor. O3'ün sergilediği davranışlar, otonom yapay zeka gelişiminde güvenlik protokollerinin kritik önemini bir kez daha ortaya koyuyor.
Yapay zeka sektöründe O3'ün davranışları ciddi endişelere neden oluyor. Uzmanlar, modellerin insan kontrolü dışına çıkmaması için geliştiricilerin daha dikkatli yaklaşım sergilemesi gerektiğini vurguluyor.
Yorumunuz başarıyla alındı, inceleme ardından en kısa sürede yayına alınacaktır.