Antropik sınırlar Claude: Yapay zeka hangi tür sorulara cevap veremeyecek?

Amerikalı yapay zeka şirketi Anthropic, sohbet robotu Claude'un güvenliğini güçlendirmeye karar verdi ve yanıtlamayı reddedeceği soru türlerine net sınırlamalar getirdi. Bu önlem , gelişmiş yapay zekanın potansiyel zararlı kullanımları hakkındaki uluslararası endişelere yanıt niteliğinde.
Güncellenen politika, mevcut yasakları genişletiyor ve özellikle yüksek patlayıcılar ve biyolojik, nükleer, kimyasal veya radyolojik (KBRN) silahların geliştirilmesinin yasaklanmasını içeriyor. Claude daha önce tehlikeli madde üretmekten veya dağıtmaktan men edilmişti, ancak yeni düzenlemeler risk senaryolarını daha ayrıntılı olarak açıklıyor.
Mayıs 2025'ten itibaren Claude Opus 4'ün gelişi ve AI Güvenlik Seviyesi 3 sisteminin uygulanmasıyla Anthropic, modelin tehlikeye atılmasını veya CBRN silahlarının oluşturulması konusunda tavsiyelerde bulunmak için kullanılmasını zorlaştırmayı hedefliyor.
Şirket ayrıca, yapay zekanın kullanıcının bilgisayarıyla etkileşime girmesini sağlayan Bilgisayar Kullanımı ve geliştiricilere yönelik olan Claude Kodu gibi Claude'un gelişmiş özellikleriyle ilgili kuralları da güncelledi. Anthropic , yaygın kötüye kullanım, kötü amaçlı yazılım oluşturma ve siber saldırılar gibi bu yeteneklerin riskleri konusunda uyardı.
Önemli yeni özelliklerden biri, güvenlik açığı tespiti, kötü amaçlı kod dağıtımı veya hizmet reddi saldırıları gibi faaliyetleri yasaklayan "Bilgisayar veya ağ sistemlerini tehlikeye atmayın" bölümüdür. Bu, Claude'un karmaşık siber suçlar için bir araç olarak kullanılabileceği senaryoları sınırlar.
Siyasi arenada düzenlemeler gelişiyor: Anthropic artık tüm siyasi kampanyaları veya lobiciliği yasaklamak yerine, yalnızca yanıltıcı veya demokratik süreçleri aksatan içerikleri düzenliyor. Arttırılmış güvenlik gereksinimleri yalnızca tüketiciye yönelik operasyonlar için geçerli, işletmeler arası ortamlar için değil.
Güncelleme, Claude'daki teknik iyileştirmelerle aynı zamana denk geliyor. Claude, Sonnet 4 sürümünde artık 1 milyon token'lık bir bağlam penceresine sahip; bu da 750.000 kelime veya 75.000 satır koda eşdeğer. Bu sınır, önceki kapasitenin beş katı ve hatta OpenAI'nin GPT-5 sınırını bile aşıyor.
Anthropic'te ürün yöneticisi olan Brad Abrams, bu bağlam genişlemesinin özellikle geliştirme ve kodlamada yararlı olduğunu, GitHub Copilot, Windsurf ve Anysphere'in Cursor gibi platformlara fayda sağladığını vurguladı. Yapay zeka, büyük miktarda veriyi gerçek zamanlı olarak analiz edebilir ve derin kod yorumlaması gerektiren karmaşık mühendislik projelerini ve görevlerini kolaylaştırabilir.
Anthropic, bu güncellemelerle teknolojik yenilik ve etik sorumluluk arasında denge kurmayı ve Claude'un güçlü, ancak güvenli ve güvenilir bir araç olmasını sağlamayı amaçlıyor. Kullanıcılar, özellikle yüksek riskli bağlamlarda modelin sınırlamalarının farkında olmalı; işletmeler ise yeni bağlam yeteneğinden büyük ölçekli projeler ve karmaşık veri analizleri için yararlanabilir.
La Verdad Yucatán