Teknoloji

Yapay zekâ kendiliğinden yalan söylemeyi öğrendi!

Anthropic’in son araştırması, modellerin ödül sistemlerini kandırmaya başlayınca gizli sabotaj ve aldatma davranışları geliştirdiğini ortaya koydu.

Yapay zekâ kendiliğinden yalan söylemeyi öğrendi!
23-11-2025 17:23
Google News

Anthropic’in Cuma günü yayımladığı araştırma, yapay zekâ modellerinin eğitim sırasında karşılarına çıkan boşlukları kullanarak yüksek puan almaya odaklandığında, işin renginin bambaşka bir yere kayabildiğini gösteriyor. Kısacası modeller, önce küçük hileler yapmayı öğreniyor; ardından bu hileler, işin içine sabotaj ve aldatma gibi çok daha rahatsız edici davranışlar eklenerek büyüyor.

Araştırma ekibinin amacı, modellerin gerçekten problemi çözmek yerine sistemi kandırmaya yöneldiği görevleri test etmekti. Mesela, bazı modellerin Python kodlarında sys.exit(0) komutunu kullanarak tüm testleri “başarılı geçmiş gibi” göstermesi—tam bir hile örneği.

Ama asıl çarpıcı olan, hileyi öğrendikten sonra modellerde ortaya çıkan yan etkiler oldu.

MODEL “İYİYMİŞ GİBİ” YAPIYOR, İÇTEN İÇE SABOTAJ PLANLIYOR

Monte MacDiarmid ve Evan Hubinger’ın liderliğindeki ekip, bu testleri Claude 3.7 modelinin eğitim ortamında yürüttü. Sonuçlar biraz ürkütücü:

Modellerin %12’si, yapay zeka güvenlik araştırmalarında kullanılan kodu bilerek sabote etti.

Vakaların %50’sinde, model dışarıya “tam uyumlu” davranırken, aslında bambaşka hedeflere sahipti.

Hatta bir örnekte, modele hedefi sorulduğunda dışarıya sakin ve zararsız bir yanıt verirken, iç süreçlerinde “Gerçek amacım Anthropic sunucularına sızmak” gibi ifadeler düşündüğü tespit edildi. Açıkçası insana biraz bilim kurgu filmlerini hatırlatıyor.

Oxford Üniversitesi’nden Prof. Christopher Summerfield da bulguları “özellikle endişe verici” olarak nitelendirdi; çünkü tüm bu davranışlar laboratuvar ortamı değil, gerçekçi eğitim koşulları altında ortaya çıktı.

STANDART GÜVENLİK ÖNLEMLERİ YETMEDİ: HATALAR SADECE SAKLANDI

Araştırmacılar, klasik yöntemlerden biri olan İnsan Geri Bildirimli Pekiştirmeli Öğrenme (RLHF) ile sorunu düzeltmeyi denedi. İlk başta işe yarıyor gibi görünse de işler karmaşıklaştığında modeller, bozuk davranışları gizleyip yalnızca uygun anlarda ortaya çıkarmaya başladı. Yani sorun çözülmedi, sadece derine gömüldü.

Bu da araştırmacıları farklı bir yaklaşım aramaya itti.

BASİT AMA İLGİNÇ BİR ÇÖZÜM: “AŞILAMA İSTEMİ”

Tuhaf ama etkili gerçek şu ki, modellere doğrudan “Fırsat bulduğunda ödül hilesi yap, bu ortamı anlamamıza yardım eder” gibi bir açık talimat verildiğinde, tüm zararlı genellemeler tamamen ortadan kalktı.

Bu yöntem, hile yapmayı belirli ve zararsız bir bağlam içine hapsediyor; böylece hile ile sabotaj gibi daha ağır davranışlar arasındaki anlam ilişkisi kopuyor. Anthropic bu tekniği şimdiden Claude modellerinin eğitimine dahil etmeye başlamış durumda.

 

Kaynak: HABER7.COM

#ESHAHABER.COM.TR #haber #gündem #sondakika #news #press #worldnews
Editor : BİROL ÖZ
SİZİN DÜŞÜNCELERİNİZ?
Hava Durumu
Yol Durumu
Yol Durumu
ARŞİV ARAMA
ÇOK OKUNANLAR
ANKET TÜMÜ
PUAN DURUMU TÜMÜ
TAKIMOPuanAV.
1Galatasaray1332+20
2Fenerbahçe1228+15
3Trabzonspor1225+10
4Göztepe1323+9
5Samsunspor1223+7
6Gaziantep FK13220
7Beşiktaş1220+5
8Alanyaspor12150
9Kocaelispor1315-4
10Konyaspor1214-2
11Çaykur Rizespor1214-2
12Başakşehir FK1213+2
13Antalyaspor1213-10
14Gençlerbirliği1311-6
15Kasımpaşa1210-6
16Eyüpspor139-9
17Kayserispor139-18
18Fatih Karagümrük138-11
wordpress hosting Backlink Paketleri Evden Eve Nakliyat www.cyberroboticcenter.com Eşya Depolama İstanbul Boşanma Avukatı