Claude'a Savunma Stratejisi Sordu, Mahkeme Delil Olarak Kabul Etti: Heppner Kararı
Bir fraud sanığı yapay zekaya savunma stratejisi sordu. Federal mahkeme bu konuşmaların avukat-müvekkil gizliliği kapsamında olmadığına karar verdi. ABD çapında ilk emsal.

Bradley Heppner, halka açık bir şirketin eski CEO’su ve yönetim kurulu başkanı. Ekim 2025’te New York’ta federal iddianame açıldı. Suçlamalar ağır: menkul kıymet dolandırıcılığı, wire fraud, komplo, denetçilere yanlış beyanda bulunma, kurumsal kayıtları tahrif etme. İddianameye göre yatırımcılardan 150 milyon doların üzerinde para dolandırmış.
Ama bu yazının konusu Heppner’ın suçlamaları değil. Konusu, Heppner’ın tutuklanmadan önce yaptığı bir şey. Ve o şeyin yarattığı hukuki deprem.
Heppner, soruşturma hedefi olduğunu öğrendikten sonra Anthropic’in yapay zeka platformu Claude’un tüketici versiyonuyla oturup savunma stratejisi geliştirdi. Hukuki risklerini analiz etti. Savcılığın olası argümanlarını değerlendirdi. Savunma teorileri oluşturdu. Toplamda 31 belge üretti.
Kasım 2025’te FBI evini aradığında bu belgeleri ele geçirdi. Ve savcılar bunları mahkemede delil olarak kullanmak istedi.
Heppner’ın avukatları itiraz etti: “Bu belgeler avukat-müvekkil gizliliği kapsamında. Müvekkilimiz bu belgeleri avukatlarıyla görüşmek için hazırladı.”
10 Şubat 2026’da New York Güney Bölgesi federal mahkemesinde Hakim Jed Rakoff kararını verdi: hayır. Bu belgeler ne avukat-müvekkil gizliliği kapsamında ne de iş ürünü doktrini kapsamında korunuyor. Savcılar bunları kullanabilir.
ABD çapında ilk emsal karar. Harvard Law Review dahil olmak üzere hukuk dünyasının tamamı bu kararı tartışıyor.
Mahkeme Ne Dedi?
Hakim Rakoff kararını önce duruşmada sözlü olarak verdi, bir hafta sonra da yazılı gerekçesini yayınladı. Kararın temelinde üç argüman var.
Birincisi, Claude avukat değil. Avukat-müvekkil gizliliğinin en temel şartı, iletişimin bir avukatla yapılmış olması. Claude bir yapay zeka platformu. Ne avukat ne de avukatın yardımcısı. Rakoff bu noktada çok net: “Claude avukat olmadığına göre, gizlilik iddiası daha başlamadan düşüyor.”
İkincisi, gizlilik beklentisi yok. Avukat-müvekkil gizliliğinin çalışması için iletişimin gizli tutulması gerekiyor. Ama Heppner halka açık bir yapay zeka platformu kullandı. Anthropic’in kullanım koşulları ve gizlilik politikası açıkça söylüyor ki kullanıcı girdileri toplanabilir, model eğitimi için kullanılabilir ve belirli koşullarda düzenleyici otoritelere veya üçüncü taraflara iletilebilir. Heppner bu koşulları kabul ederek platformu kullandı. Dolayısıyla gizlilik beklentisi makul değil.
Üçüncüsü, sonradan avukata göndermek geriye dönük gizlilik yaratmaz. Heppner’ın avukatları, belgelerin avukatlarla paylaşılmak amacıyla hazırlandığını savundu. Ama mahkeme bunu reddetti. Bir belge oluşturulduğu anda gizli değilse, sonradan bir avukata gönderilmesi onu geriye dönük olarak gizli yapmaz. Gizlilik iletişimin yapıldığı anda var olmalı, sonradan eklenmez.
Rakoff’un yazılı kararındaki bir cümle durumu özetliyor: “Yapay zekanın yeniliği, onun kullanımının köklü hukuki ilkelere tabi olmadığı anlamına gelmez.”
İş Ürünü Doktrini de Korumadı
Heppner’ın avukatları ikinci bir argüman daha ileri sürdü: bu belgeler “iş ürünü doktrini” (work product doctrine) kapsamında korunmalı. Bu doktrin, dava beklentisiyle hazırlanan materyalleri koruma altına alıyor.
Mahkeme bunu da reddetti. Gerekçe: iş ürünü doktrininin uygulanması için belgelerin avukat tarafından veya avukatın yönlendirmesiyle hazırlanmış olması gerekiyor. Heppner’ın kendi avukatları, müvekkillerine Claude kullanması talimatı vermediklerini doğruladı. Heppner bunu kendi inisiyatifiyle yaptı. Avukat yönlendirmesi olmadan hazırlanan belgeler iş ürünü doktrini kapsamına girmiyor.
Ama burada ilginç bir nüans var. Rakoff kararında şunu da söyledi: eğer avukat Heppner’a Claude’u kullanması talimatını verseydi, sonuç farklı olabilirdi. O durumda Claude, avukatın yönlendirdiği bir araştırma aracı olarak değerlendirilebilir ve Kovel doktrini kapsamında gizlilik koruması sağlanabilirdi.
Yani mesele yapay zekanın kendisi değil. Yapay zekanın nasıl, kimin yönlendirmesiyle ve hangi koşullarda kullanıldığı.
Neden Bu Kadar Önemli?
Bu karar sadece ceza hukuku için değil. Compliance, iç denetim, kurumsal soruşturma yapan herkes için doğrudan pratik sonuçları var.
Düşünün: bir banka compliance yöneticisi, MASAK soruşturmasıyla ilgili bir durumu ChatGPT’ye veya Claude’a soruyor. Riskleri analiz etmesini istiyor. Platform bu verileri topluyor, saklıyor, potansiyel olarak model eğitimi için kullanıyor. Sonra bu soruşturma büyüyor ve dava açılıyor. Savcı bu yapay zeka konuşmalarını talep ederse ne olacak?
Heppner kararına göre: bu konuşmalar korunmuyor.
Veya bir iç denetçi, bir fraud vakasını araştırırken yapay zekaya bulgularını yüklüyor ve analiz ettiriyor. Sonra dava açılıyor ve karşı taraf bu belgeleri keşif sürecinde talep ediyor. Heppner kararına göre: avukat yönlendirmesi yoksa korunmuyor.
Bu, yapay zeka kullanan her profesyonel için bir uyandırma çağrısı. Özellikle hassas konularda — hukuki riskler, soruşturmalar, düzenleyici incelemeler — halka açık yapay zeka platformlarına ne girdi verdiğiniz artık çok daha kritik.
Peki Ne Yapılmalı?
Rakoff’un kararı yapay zeka kullanımını yasaklamıyor. Ama net sınırlar çiziyor.
Hassas hukuki konularda halka açık yapay zeka platformları kullanıyorsanız, gizlilik beklentisi makul değil. Anthropic, OpenAI ve diğer platformların kullanım koşullarını okuyun. Çoğu, kullanıcı verilerini toplayabileceğini, model eğitimi için kullanabileceğini ve yasal süreçlerde paylaşabileceğini açıkça belirtiyor.
Avukatınız yönlendirmiyorsa, yapay zekayla ürettiğiniz hukuki analizler korunmuyor. Eğer bir avukat size “şu konuyu Claude’da araştır” derse ve siz bunu avukatın iş akışının bir parçası olarak yaparsanız, sonuç farklı olabilir. Ama kendi başınıza yaparsanız, Heppner kararı geçerli.
Kurumsal düzeyde yapay zeka kullanım politikaları oluşturulmalı. Hangi konularda yapay zeka kullanılabilir, hangi platformlar kabul edilir, hassas verilerin yapay zekaya girilmesi hangi koşullarda uygun — bunların hepsinin yazılı bir politikası olmalı. Özellikle hukuk departmanları, compliance birimleri ve iç denetim ekipleri için.
Enterprise yapay zeka çözümleri farklı bir kategori. Kapalı, kurumsal lisansla çalışan, verilerin model eğitimine kullanılmadığı garanti edilen platformlar farklı bir hukuki değerlendirmeye tabi. Rakoff kararı tüketici versiyonuna (consumer-grade) özgü. Ama bu ayrımı yapmak için platform sözleşmesinin detaylarına bakmak gerekiyor.
Türkiye Bağlamı
Türkiye’de avukat-müvekkil gizliliği farklı bir hukuki çerçevede düzenleniyor. Avukatlık Kanunu ve CMK hükümleri geçerli. Ama temel prensip aynı: gizliliğin korunması için iletişimin avukatla yapılmış olması ve gizli tutulma niyetinin bulunması gerekiyor.
Türk bankacılık sektöründe yapay zeka kullanımı hızla yaygınlaşıyor. Özellikle ChatGPT ve benzeri araçlar günlük iş akışlarında kullanılıyor. Ama bu araçlara ne tür verilerin girildiği konusunda kurumsal politikalar çoğu yerde henüz oluşmamış.
Bir iç denetçi veya compliance yöneticisi, soruşturma bulgularını yapay zekaya yüklüyorsa, bu veriler nereye gidiyor? Platform bu verileri saklıyor mu? Model eğitiminde kullanıyor mu? Üçüncü taraflarla paylaşabiliyor mu? Bu soruların cevabı, Heppner kararının Türkiye’deki yansıması açısından kritik.
BDDK ve SPK’nın yapay zeka kullanımına yönelik spesifik düzenlemeleri henüz oluşum aşamasında. Ama hukuki risk beklemez. Bugün halka açık bir yapay zeka platformuna girilen hassas bilgi, yarın bir dava dosyasında karşınıza çıkabilir.
Sonuç
Heppner kararı teknik bir hukuk kararı gibi görünebilir ama aslında çok basit bir şey söylüyor: yapay zekaya söylediğiniz her şey delil olabilir.
Bu, yapay zeka çağının yeni gerçekliği. Eski dünyada bir deftere yazdığınız notlar, çekmecenizde kaldığı sürece özeldi. Yapay zekaya yazdığınız notlar ise bir şirketin sunucularında, potansiyel olarak model eğitiminde ve yasal süreçlerde erişime açık.
Heppner bunu zor yoldan öğrendi. Savunma stratejisini geliştirmek için kullandığı araç, şimdi savcılığın eline geçti. Ve mahkeme bunu onayladı.
Yapay zeka güçlü bir araç. Ama her güçlü araç gibi nerede ve nasıl kullanıldığı önemli. Bir müfettiş bıçağı delil toplamak için de kesim yapmak için de kullanabilir. Mesele bıçakta değil, elde.
Heppner kararının mesajı net: yapay zekayı dikkatli kullanın. Çünkü karşı taraf da kullanacak, sizin verilerinizi.