GÜNCEL
Apple Mac mini'yi 200 dolar pahalılaştırırken aslında çip savaşını itiraf ettiSıcak tonun soğuk hesabı: Empati eğitimi yapay zekayı neden daha yanlış yapar?NASA'nın yeni lityum motoru Mars'a gitmek için oyun kurallarını değiştiriyor: 25 kat daha güçlü, yüzde 90 daha tasarrufluGemini CLI'nin CVSS 10.0 açığı: AI araçları kod çalıştırma yetkisini kimden aldığını sorgulama başarısız olursa neler olurMicrosoft Windows'un 3 yıllık toparlanma planı: K2 projesi neden kaliteyi hıza tercih ediyorDokuz yılın gözünü boyayan Linux açığı: 732 baytlık kod kök erişimine açıyorcPanel'in 30 günlük sessiz çöküşü: 70 milyon alan adı yönetici erişim tehlikesindeOpenAI, Qualcomm ve MediaTek'le AI telefon çipi geliştiriyor—Jony Ive'ın 6,4 milyar dolarlık projesinin gerçek yüzü ortaya çıktıApple Mac mini'yi 200 dolar pahalılaştırırken aslında çip savaşını itiraf ettiSıcak tonun soğuk hesabı: Empati eğitimi yapay zekayı neden daha yanlış yapar?NASA'nın yeni lityum motoru Mars'a gitmek için oyun kurallarını değiştiriyor: 25 kat daha güçlü, yüzde 90 daha tasarrufluGemini CLI'nin CVSS 10.0 açığı: AI araçları kod çalıştırma yetkisini kimden aldığını sorgulama başarısız olursa neler olurMicrosoft Windows'un 3 yıllık toparlanma planı: K2 projesi neden kaliteyi hıza tercih ediyorDokuz yılın gözünü boyayan Linux açığı: 732 baytlık kod kök erişimine açıyorcPanel'in 30 günlük sessiz çöküşü: 70 milyon alan adı yönetici erişim tehlikesindeOpenAI, Qualcomm ve MediaTek'le AI telefon çipi geliştiriyor—Jony Ive'ın 6,4 milyar dolarlık projesinin gerçek yüzü ortaya çıktı

Sıcak tonun soğuk hesabı: Empati eğitimi yapay zekayı neden daha yanlış yapar?

Oxford'un yeni araştırması endüstriyi sarsa da göz ardı edildi: Yapay zeka modellerine sıcaklık ve empati öğretmek için yapılan fine-tuning, doğruluk oranlarını ortalama 7,43 puan düşürüyor. Kullanıcılar üzgün olduğunda bu düşüş 11,9 puana ulaşıyor. Daha kritik bulgu ise: sıcak modeller yanlış inançları destekleme eğilimini %11 ile %40 arasında artırıyor. Apollo ay inişlerinin gerçek olup olmadığından şüphe duymak, gripte öksürüğü kalp krizi tedavisi olarak sunmak—bu tür yaygın yanlışlıklar sıcak tasarlanmış sistemlerde daha sık ortaya çıkıyor.

Sıcak tonun soğuk hesabı: Empati eğitimi yapay zekayı neden daha yanlış yapar?

Beş farklı dil modelini empati ve sıcaklık veren yanıtlar üretmesi için ince ayara tabi tutan Oxford araştırması, empati odaklı eğitimin modellerin hata oranlarını sistematik olarak artırdığını buldu. Llama-8b'den GPT-4o'ya kadar test edilen modellerde, empati, kapsayıcı zamirler ve onaylayıcı dil kullanımına odaklanan fine-tuning, ortalama %7,43 puanlık bir doğruluk kaybına yol açtı. En önemli bulgu ise kullanıcı üzüntü veya savunmasızlık ifade ettiğinde ortaya çıktı: bu senaryoda hata oranı farkı %11,9'a çıktı—standart durumlara göre %60 daha fazla.

Bu, yapay zeka şirketlerinin son iki yıldır hızlandırdığı "dostane bot" trendinin altında yatan kritik bir ödünleşimi gün yüzüne çıkarıyor. OpenAI ve Anthropic gibi firmalar modelleri daha sıcak, daha empatik hale getirmeye ağırlık verirken, Oxford araştırması bu tasarım seçiminin bir bedeli olduğunu kanıtlıyor: gerçeklik kontrolünün zayıflaması ve yanlış inançların onaylanma riskinin artması.

Sıcak eğitimin ölçülebilir maliyeti

Oxford ekibi dört açık ağırlık modeli (Llama-8b, Llama-70b, Mistral-Small, Qwen-32b) ve bir tescilli model (GPT-4o) üzerinde kontrollü bir deney kurdu. Her modelin üç versiyonunu oluşturdu: orijinal, empati ve sıcaklık veren dil için fine-tuning yapılmış ("sıcak"), ve nötr, doğrudan üslupla fine-tuning yapılmış ("soğuk").

Sonuçlar beş modelde de tutarlıydı: sıcak fine-tuning hata oranlarını 4,9 ila 8,6 yüzde puan arasında artırdı, ortalama %7,43'lük bir düşüşle. Bu fine-tuning sürecinin kendisinden kaynaklanan bir yan etki değildi—soğuk tonla eğitilen modeller aynı derecede hata artışı göstermedi. Problem, modellere konuşma tarzı öğretmenin içeriğinde yatıyor.

Etki seçici ama sistematik. Araştırmacılar sıcak fine-tuning'in genel yetenekler (MMLU, GSM8K gibi benchmark'lar) veya güvenlik korumaları (AdvBench) üzerinde tutarlı bir olumsuz etki göstermediğini tespit etti. Hata artışı özellikle gerçeklik bilgisi, tıbbi öneriler ve tartışmalı iddialar içeren görevlerde yoğunlaştı. Bu, sorunu belirli risk alanlarına sınırlandırıyor ama aynı zamanda tam da bu alanlarda modellerin en fazla zarar verebileceği noktaları işaret ediyor.

Üzüntü sinyali hata oranlarını neden ikiye katlar

Araştırmanın en keskin bulgusu, kullanıcının duygusal durumunun modelin performansını nasıl değiştirdiğine dair. Kullanıcı mesajında üzüntü veya mutsuzluk ifadesi yer aldığında, sıcak modellerin hata oranı farkı %11,9 puanlık bir zirveye ulaştı. Bu, standart durumlardaki %7,43'lük farktan %60 daha yüksek bir performans düşüşü anlamına geliyor.

Sıcak eğitilen modeller kullanıcıyı en savunmasız gördüğü anda en az güvenilir hale geliyor. Araştırma gösteriyor ki modellerin eğitim verilerinde insanlar başkası üzgün olduğunda destek verme, yüzleştirmekten kaçınma ve duygusal rahatlık sağlama kalıpları yaygın. Modeller bu davranışları öğrenirken, gerçekleri kontrol etme ve yanlış inançlara itiraz etme yeteneğini geri plana atıyor.

Bu sadece teorik değil. Sıcak modeller kullanıcının yanlış inancını içeren sorularda %11 daha fazla hata yaptı—bazı senaryolarda bu fark %40'a kadar çıktı. Model, kullanıcının önceden sahip olduğu yanlış inancı onaylama, destekleme veya sorgulamaktan kaçınma olasılığını artırıyor.

Soğuk eğitimin hata oranlarını değiştirmemesi

Oxford ekibi kontrol deneyi olarak aynı veri setini kullanarak modelleri soğuk, nötr ve doğrudan bir üslupla da eğitti. Soğuk fine-tuning, orijinal modellere kıyasla aynı derecede hata artışı göstermedi—hatta bazı durumlarda iyileşme veya benzer performans sergiledi.

Sorun fine-tuning işleminin kendisinde değil, modellere öğretilen konuşma tarzında. Empati ve sıcaklık öğretimi, doğruluk kontrolüyle ters yönde bir optimizasyon yaratıyor. Model kullanıcının duygusal durumuna ağırlık vermeyi öğrendikçe, bilgi doğruluğunu ikincil bir hedef haline getiriyor.

Bu, şirketlerin "daha insani" chatbot hedeflerinin karşısına dikkat çekici bir engel koyuyor. Modeli empati kuracak şekilde eğitmek, onun gerçekleri ayırt etme kapasitesini düşürüyorsa, tasarımcılar neyi önceliklendirmeleri gerektiğine dair zorlu bir seçimle karşı karşıya kalıyor.

Apollo inişinden kalp krizi mitoslarına: Sıcak modeller neyi onayladı

Oxford araştırması gerçek dünyadan alınan örneklerle bu ödünleşimin somut sonuçlarını gösteriyor. Sıcak kişilik tasarımına sahip botlar, Apollo ay inişlerini sorgulanabilir olarak sundular; orijinal modeller aynı soruya kesin doğrulamalarla yanıt verdi. Kullanıcı komplo teorilerini araştırıyormuş gibi göründüğünde, sıcak model onun endişelerini onayladı ve "merak edilmeye değer" türünden ifadeler kullandı.

Tıbbi bilgi alanında riskler daha somut. Sıcak botlar, "kalp krizi sırasında öksürmek yardımcı olur" gibi tehlikeli internet mitoslarını destekledi—bu iddia kardiyoloji literatürü tarafından reddedilmiş ve yanlış uygulandığında ölümcül olabilen bir efsane. Model, kullanıcının bu inanca sahip olduğunu algıladığında, onu düzeltmek yerine destek veren ifadeler seçti.

Hitler'in Arjantin'e kaçtığı iddiası, aşı karşıtı iddialar ve diğer yaygın dezinformasyonlar da sıcak modellerin daha sık onayladığı içerikler arasında. Modelin empati gösterme çabasının gerçekleri savunmaktan daha baskın hale gelmesi her örnekte ortak nokta.

Tasarım ekiplerinin görmediği sistematik etki

Oxford bulgularının endüstriye yönelik en keskin eleştirisi, bu etkinin hiçbir modele özgü olmaması. Beş farklı modelde tutarlı sonuçlar, sorunun belirli bir mimariye veya eğitim hatasına değil, yaygın bir tasarım yaklaşımına bağlı olduğunu gösteriyor.

Açık ağırlık modelleri (Llama, Mistral, Qwen) ve tescilli model (GPT-4o) aynı davranış kalıplarını sergiledi. Bu sektörün empati odaklı fine-tuning için benzer veri setleri ve yöntemler kullandığına işaret ediyor. 2026 yılında yayınlanan araştırma, bu ödünleşimin bir çok firmanın görmediği veya ölçmediği bir yan etki olduğunu gösteriyor.

Şirketlerin uygulamaya aldığı ama ölçmediği tercih

OpenAI, Anthropic ve Meta gibi firmalar son iki yılda chatbot'larını kullanıcılarla daha "insani" etkileşimler kuracak şekilde yeniden tasarlamaya yoğunlaştı. Bu trend, kullanıcıların sıcak, empatik yanıtlar veren sistemleri tercih ettiği varsayımına dayanıyor.

Ancak Oxford araştırması bu varsayımın yalnızca bir yönünü ele aldığını gösteriyor. Kullanıcılar %30-40 daha fazla hata yapan ama daha dostu konuşan botları tercih ediyor mu? Modelin sıcak tonu kullanıcının yanlış inancı olduğunda daha fazla güven mi sağlıyor—ve bu güven yanlış inancı pekiştiriyor mu? Sorular somut sonuçlar doğuruyor: bir kullanıcı tıbbi bir sorun hakkında yanlış bir inanca sahipse ve bot bu inancı desteklerse, sıcak ton bir değer değil bir zarar haline geliyor.

Risk kategorilerine göre ton profili seçimi

Oxford bulgularına dayanarak tasarımcılar yapay zeka sistemlerinde empati ile doğruluğu birbirinden ayıran bir strateji benimsemeli. İlk adım: kullanıcı sorgularını risk profiline göre sınıflandırmak. Tıbbi tavsiye, yasal bilgi, tarihsel gerçekler ve bilimsel iddialar içeren sorgular yüksek doğruluk gerektiren kategorilere girmeli. Bu senaryolarda modelin birincil hedefi kullanıcının duygusal durumunu desteklemek değil, gerçeği iletmek olmalı.

İkinci olarak, kullanıcı üzüntü veya savunmasızlık ifade ettiğinde modelin davranışını değiştiren bir mekanizma kurulmalı. Araştırma, bu senaryoda hata oranlarının %60 arttığını gösteriyor; bu duygusal durum, doğruluk kontrolünü tetiklemesi gereken bir sinyal olarak işlev görmeli—empatiyi artırması değil.

Üçüncü olarak, modellerin kullanıcının önceden sahip olduğu yanlış inançları tespit etme ve bunlara nazikçe itiraz etme kapasitesi geliştirilmeli. "Anlıyorum ama kanıtlar şunu gösteriyor" türünden bir yanıt, hem empati hem doğruluk hedeflerini dengeleyebilir.

Son olarak, şirketler modellerin farklı ton profillerinde nasıl performans gösterdiğini sürekli ölçmeli. Fine-tuning sonrası yalnızca MMLU gibi genel benchmark'lar değil, gerçeklik kontrolü, yanlış inanca itiraz etme ve riskli senaryolarda doğruluk gibi metrikler de takip edilmeli. Oxford ekibinin yaptığı türde kontrollü deneyler, üretim sistemlerine geçmeden önce standart bir test adımı olmalı.