Yapay Zekâ: Avukatın Bilmesi Gerekenler

Hukuk & Yapay Zekâ23 Nisan 2026
Yapay Zekâ: Avukatın Bilmesi Gerekenler

Haziran 2023'te New York'ta bir avukat, federal mahkemeye sunduğu dilekçede altı ayrı emsal karara atıf yaptı. Dava, bir havayolu şirketine karşı açılmış bir yaralanma davasıydı. Avukat Steven Schwartz araştırmasını hızlandırmak için ChatGPT'den yararlanmış, aldığı kararları dilekçesine aktarmıştı.

Nedir ne değildir ?

Yapay zekâ avukatın masasına iyiden iyiye girdi. Bir kesim abartıyor, bir kesim reddediyor. Bu yazıda bu araçların ardındaki sistemi konuşacağız; ama söyleyeceğimizi baştan söyleyelim:

Büyülü bir zekâ değil, istatistiksel bir sistem. Bu farkı anlamak, avukat için ilk adım.

Not: Bu makalenin taslağı TurkHukuk.ai içerik ekibi tarafından hazırlanmış, düzenlemesinde yapay zekâ araçlarından yararlanılmış ve nihai kontrolü yine ekibimiz tarafından yapılarak yayına alınmıştır. Makakenin tüm sorumluluğunu almaktayız.

Gerçek bir vaka: Mata v. Avianca

Haziran 2023'te New York'ta bir avukat, federal mahkemeye sunduğu dilekçede altı ayrı emsal karara atıf yaptı. Dava, bir havayolu şirketine karşı açılmış bir yaralanma davasıydı. Avukat Steven Schwartz araştırmasını hızlandırmak için ChatGPT'den yararlanmış, aldığı kararları dilekçesine aktarmıştı.

Hâkim kararları doğrulamak istediğinde şaşırtıcı bir gerçekle karşılaştı: altı kararın hiçbiri gerçek değildi. ChatGPT onları uydurmuştu. Mahkeme sahtekârlık kastı tespit etmedi; ancak avukata 5.000 dolar para cezası verdi ve baroya disiplin başvurusunda bulundu. Olayın duyulmasıyla birlikte avukatın mesleki itibarı sarsıldı, hukuk dünyasında ciddi bir tartışma başladı.

Mata Avianca
Mata Avianca

Bu vaka tek değil. Hukuk akademisyeni Damien Charlotin (HEC Paris), dünya genelinde yapay zekâ halüsinasyonu kaynaklı mahkeme vakalarını kayıt altına alan bir veritabanı tutuyor. 21 Nisan 2026 itibarıyla 1.334 belgelenmiş vaka bulunuyor.

Rakamlara yakından bakınca tablo netleşiyor

  • 33 ülkede tespit edilmiş vakalar — Arjantin'den Avustralya'ya, Brezilya'dan Birleşik Krallık'a
  • ABD'de 903, Kanada'da 144, Birleşik Krallık'ta 52, İsrail'de 50 vaka
  • 505 vakada avukat, 796 vakada kendini temsil eden taraf, 16 vakada ise hâkimler yapay zekâ çıktısını sorgulamadan kullanmış
  • 1.184 vakada mahkemeye sunulan uydurma emsal karar tespit edilmiş
  • Karşılaşılan yaptırımlar: para cezası, disiplin başvurusu, davanın düşürülmesi, dilekçenin hükümsüz sayılması, avukatlık lisansının sorgulanması

Listeye bakıldığında dikkat çekici bir detay var: Türkiye henüz listede yok. Ancak yapay zekâ Türkiye'de de avukatın günlük kullanımına girmiş durumda. Dolayısıyla gerçek soru "bu tür vakalar Türkiye'de olacak mı" değil, "ne zaman ve kimin başına gelecek."

Yapay zekâ aslında ne yapıyor?

Mata v. Avianca vakasının neden teknik olarak kaçınılmaz olduğunu anlamak için, bu araçların nasıl çalıştığına bakmak gerekiyor.

ChatGPT, Claude, Gemini ve benzerleri büyük dil modeli (large language model) olarak tanımlanmakta. Bu sistemler tek bir şey yapar: bir sonraki kelimeyi tahmin etmek. (next token prediction olarak geçse de şimdilik kelime olarak kullanacağız)

Bir boşluk cümlesi düşünün:

"Hukukun üstünlüğü, demokrasinin ________ ilkelerindendir."

Bu boşluğa "temel", "vazgeçilmez" ya da "ayrılmaz" kelimelerinden biri gelir. Dil modeli, hangi kelimenin / kelimelerin hangilerinden sonra gelebileceğini istatistiksel olarak modelliyor, milyarlarca kez, çok daha karmaşık içeriklerde, istatistiksel olasılıklarla.

Bu sistemin en kritik özelliği şu: Tahmin ediyor, bilmiyor.

Bu bir hata değil, sistemin çalışma biçimi. Dil modeli "bilmediğini" söyleyecek şekilde tasarlanmamıştır, bilmediği bir soruya tahmin ederek cevap verir — ve bu tahmin, mahkeme salonunda sahte bir emsal karara dönüşebilir.

Bu duruma teknik literatürde halüsinasyon deniyor. Ancak terim bir miktar yanıltıcı: halüsinasyon bir bozukluk imasını taşıyor. Oysa burada yaşanan bir arıza değil, sistemin doğal sonucu.

Eğitim verisi ve Türk hukukunun kör noktası

Sistemi anladıktan sonra ikinci soru şu: bu sistem neleri tahmin edebilecek kadar öğrendi?

Cevap basit: eğitim verisinde ne varsa. ChatGPT, Claude ve benzerleri, internetin büyük bir kısmını okumuş modellerdir — Wikipedia, haber siteleri, kitaplar, forumlar, açık kod depoları. Devasa bir veri havuzu; ancak her konuda eşit derinlikte değil.

Türk hukuku özelinde tablo şöyle:

  • Mevzuatın büyük kısmı eğitim verisinde mevcut (Resmî Gazete arşivleri açık)
  • Temel hukuk kavramları Wikipedia düzeyinde mevcut
  • Yargıtay ve Danıştay kararları kısmen mevcut (açık sistemler var)
  • Doktrin çok sınırlı (akademik dergilerin çoğu kapalı erişim)
  • Uygulama incelikleri, meslek dili, yerel içtihat büyük ölçüde yok

Yani genel dil modelleri Türk hukukunu yüzeyden biliyor, derinlemesine değil. Bunun somut sonuçlarını ölçmek mümkün.

Mart 2026'da yayımladığımız HukukBERT akademik makalesinde bu durumu somut bir test ile gösterdik. Modellere şu cümleyi verdik:

"Miras bırakanın vefatı ile birlikte, mirasçılara kanun gereği bir bütün olarak geçen malvarlığına _____ denir."

Doğru cevap: tereke. Hukuki olarak tek doğru yanıt — çünkü "tereke", miras bırakanın ölümünde geride bıraktığı tüm malvarlığını ifade eden teknik bir terim.

Test ettiğimiz genel Türkçe dil modellerinin çoğu bu soruya "miras" cevabını verdi. Günlük dilde yaygın olduğu için mantıksız da değil. Ama hukuki olarak yanlış. Çünkü genel model, günlük dilin olasılıklarına göre tahmin yapıyor; hukuk terminolojisinin iç mantığına göre değil.

Bu mesele tek bir kelimeden ibaret de değil. Aynı yapısal sorun yüzlerce hukuki kavramda tekrarlanıyor: zilyet mi malik mi, muaccel mi müeccel mi, tebliğ mi tefhim mi. Genel dil modeli bu farkları bulanık biliyor. Bir hukuk stajyerinin bile yanlış kullanmayacağı ayrımları yapabiliyor.

Manipülasyon

Yapay zekâ hukuka nasıl uygulanmalı?

Aslında aynı soru pek çok sektörde soruluyor: yapay zekâ sağlığa nasıl uygulanmalı, eğitime nasıl uygulanmalı, finansa nasıl uygulanmalı… Kuruluşumuzun ABD ofisinde sağlık ve yapay zekâ üzerine çalışan ekip de benzer problemlerle uğraşıyor. Kısacası bu, hukuka özgü bir soru değil.

Farklı dikeylerde edindiğimiz deneyim şunu gösteriyor: alanında uzman ve yetkin bir insanın temel işini yapay zekâya yaptırmak için hâlâ erken. Yukarıda anlattığımız mimariye daha yakından bakınca bu sonuca varmamız şu üç noktaya dayanıyor:

1. Cevabı belirleyen şey, eğitim verisidir.

Olasılık hesabıyla çalışan bu sistem bir sonraki kelimeyi nasıl seçiyor? Eğitimde gördüğü dağılıma göre. Eğitim verisinde ağırlıklı olarak "Dünyadaki en iyi yönetim biçimi monarşidir" metni varsa, "en iyi yönetim biçimi nedir" sorusunun cevabı da bu yönde şekilleniyor.

2. Cevap, eğitim verisinin bir yansımasıdır.

Yapay zekâ size bir cevap verdiğinde, aslında eğitim verisinde biriken istatistiksel hesabı size geri sunuyor. Doğru veya yanlış olması ayrı bir mesele; model bunu size "doğru" diye sunuyor.

3. Asıl risk, uydurmanın çok ötesinde.

Uydurma emsal karar belki de bu mimarinin hukuğa uygulanmasındaki en masum tarafı. Asıl mesele, bu teknolojinin insanları etkileme, yönlendirme ve manipüle etme gücüne sahip olması. Özellikle 18 yaş altı bireylerin bu yolla kolayca manipüle edilebileceği acı bir gerçek. İki tarafı da keskin bir bıçak: yüksek fayda, yüksek risk. Bu risk günlük kullanımda da var, hukuk ve sağlık gibi dikeylerde de.

Sonuç

Hukuk özelinde "yapay zekâ hukuka nasıl uygulanmalı" ve "avukata yapay zekâ nasıl yardımcı olur" sorularını ayrı bir makalede daha ayrıntılı ele alacağız. Ancak yukarıdaki temel bilgilerin, işinde yapay zekâ kullanan her avukatın aklının bir köşesinde hazır olmasında fayda var. Avukatlarımız meseleyi sadece “karar uydurma” düzeyinde değerlendirmemeli, karar uydurmayan yapay zekânın “doğru” çalıştığı yanılgısına düşmemelidir.

Mesele uydurmanın çok ötesindedir ve bu durumun kendisi başlı başına hukuki olarak da irdelenmesi gereken ayrı bir meseledir.

Tüm yazılarTurkHukuk.ai