Yapay Zeka Akademik Yayıncılığı Ele Geçirdi: Kurallar İşe Yaramıyor

27 Nisan 2026
4 dk dk okuma süresi
Yapay Zeka Akademik Yayıncılığı Ele Geçirdi: Kurallar İşe Yaramıyor

Akademik Yayıncılıkta Dijital Fay Hattı: Üretken Yapay Zeka

ChatGPT gibi devrim niteliğindeki üretken yapay zeka (generative AI) modellerinin piyasaya sürülmesinden bu yana, bilim dünyası araştırma ve makale yazım süreçlerinde köklü bir paradigma değişimi yaşıyor. Birçok prestijli bilimsel dergi, yapay zekanın bir yazar olarak listelenmesini kesin bir dille yasaklarken; yazım, dil düzeltme ve editoryal süreçlerdeki kullanımına -sadece beyan edilmesi şartıyla- yeşil ışık yakıyor. Ancak Proceedings of the National Academy of Sciences (PNAS) dergisinde yayımlanan çarpıcı bir araştırma, akademik yayıncılıkta alınan bu önlemlerin pratikte hiçbir karşılığı olmadığını gözler önüne serdi.

Pekin Üniversitesi’nden bilgi bilimci Yi Bu ve bilgisayar bilimci Yongyuan He tarafından yürütülen bu kapsamlı çalışma, bilim dünyasında yapay zeka politikalarının ne denli işlevsiz kaldığını kanıtlıyor. Araştırmacılar, dergilerin yapay zeka kullanım politikalarının, yazarların bu araçları kullanım ve beyan etme alışkanlıkları üzerinde anlamlı bir etkisi olmadığını ortaya koydu.

1 Milyon Makale ve 5 Bin Dergi Mercek Altında

Araştırma ekibi, bilimsel dergilerin yapay zeka yönergelerini sınıflandırmak amacıyla Clarivate Analytics’in önde gelen metrik kaynağı olan Journal Citation Reports’ta yer alan 5.000’den fazla dergiyi analiz etmek için özel bir büyük dil modeli (LLM) kullandı. Yapılan sınıflandırmada şu temel bulgulara ulaşıldı:

  • Dergilerin büyük çoğunluğu yazım ve editoryal destek için yapay zeka kullanımına izin veriyor.
  • Dergilerin yüzde 60’ından fazlası dil ve gramer asistanlığına onay veriyor.
  • Daha az sayıda dergi; ‘referans ve atıf desteği’, ‘içerik oluşturma’ ve ‘çeviri hizmetleri’ gibi daha derin yapay zeka müdahalelerine yönergelerinde yer veriyor.

Dergi politikalarının haritası çıkarıldıktan sonra, araştırmacılar yapay zeka tarafından üretilmiş metin olasılığını tahmin eden gelişmiş bir algoritma kullanarak 1 milyondan fazla tam metinli makaleyi inceledi. Sonuçlar bilim dünyası için bir alarm zili niteliğindeydi: Son üç yılda yapay zeka kullanımı logaritmik bir hızla artarken, derginin bir yapay zeka politikası olup olmamasından bağımsız olarak, makalelerdeki yapay zeka kaynaklı içerik oranının birbirine çok yakın olduğu tespit edildi.

Dil Bariyerini Aşmak İçin Gizli Silah: Yapay Zeka

Çalışmanın en dikkat çekici bulgularından biri de coğrafi farklılıklarla ilgiliydi. Ana dili İngilizce olmayan ülkelerden gelen araştırmacıların yayımladığı makalelerde, İngilizce konuşulan ülkelerden gelen makalelere kıyasla çok daha yüksek oranda ‘olası yapay zeka içeriği’ bulundu. Yi Bu ve Yongyuan He, bu durumun araştırmacıların çeviri ve dil bariyerlerini (language barrier) aşmak için yapay zekaya sarıldığını gösterdiğini belirtiyor. Ancak yazarlar, mevcut algılama modellerinin, sadece ‘dilin parlatılması’ için kullanılan yapay zeka ile ‘doğrudan içerik üretimi’ arasındaki ince çizgiyi ayırt etmekte yetersiz kaldığını da itiraf ediyorlar.

Yi Bu, durumu şu sözlerle özetliyor: “Yapay zeka kullanımının dergi politikalarından bağımsız olarak giderek artması, bize araştırmacıların oylarını klavyeleriyle kullandığını gösteriyor. Dil engellerini aşmak için bu araçlarda büyük bir değer buluyorlar ve dergilerin mevcut politikaları onlara rehberlik edecek kadar güçlü değil.”

Beyan Etmemek: Temkinli Yaklaşım mı, Açık Bir Yalan mı?

İncelenen dergiler arasında 3.500’den fazlası, yapay zeka desteğinin makalede açıkça beyan edilmesini şart koşuyor. Buna rağmen, yapay zeka kullandığı tespit edilen makalelerin büyük çoğunluğunda bu kullanımın gizlendiği ortaya çıktı. Araştırmacılar, 2023 yılında yaklaşık yüzde 0,1 olan beyan oranının, 2025’in ilk çeyreğinde yüzde 0,43’e çıkarak çok cılız bir artış gösterdiğini saptadı. Pekin Üniversitesi ekibi bu beyan etmeme eğilimini, araştırmacıların bilimsel otoriteler ve hakemler tarafından ‘çalışmalarının değerinin düşeceği’ korkusuyla benimsedikleri bir ‘temkinli yaklaşım’ olarak değerlendiriyor.

Ancak bu iyimser yoruma herkes katılmıyor. Louisville Üniversitesi’nde araştırma okuryazarlığı ve iletişimi odaklı çalışan veri bilimci Alex Glynn, bu eksikliğin masum bir çekinme olmadığını çok sert bir dille ifade ediyor:

“Beyan etmemeyi bir ‘temkinli yaklaşım’ olarak tanımlamazdım. Ben bunu bir yalan olarak nitelendiriyorum. Bu durum, araştırmacıların çıkar çatışmalarını (conflicts of interest) gizlemelerine eşdeğer bir etik ihlaldir.”

Glynn ayrıca, çalışmanın tespit yazılımları geliştirmek için bir bahane sunmadığını; asıl çözümün dergilerin ‘hafif editoryal düzeltme’ gibi sınırları belli olmayan muğlak ifadelerden vazgeçmesi ve yapay zekanın açıkça yanlış kullanıldığı makaleleri hızlıca geri çekmesi (retraction) olduğunu savunuyor. Bilim dünyası şimdi, dijital asistanların gücü ile akademik etiğin şeffaflığı arasında kurulacak yeni ve uygulanabilir sınırların ne olacağını tartışıyor.

Editör Yorumu!

Uluslararası alanda yapılan bu devasa araştırma, Türkiye'deki akademik, tıbbi ve laboratuvar ekosistemini doğrudan hedeften vuruyor. Türk araştırmacılar için en büyük handikaplardan biri olan 'İngilizce dil bariyeri', son yıllarda ChatGPT gibi araçlarla kolayca aşılıyor. Ancak bu makaleden anlıyoruz ki; ana dili İngilizce olmayan ülkelerin bilim insanları, 'dilimi düzelteyim' derken yapay zekaya aslında içeriği yeniden yazdırıyor ve bunu dergi kurullarına bildirmiyor.

Ülkemizde YÖK, TÜBİTAK ve Üniversitelerarası Kurul (ÜAK) doçentlik başvuruları ve proje destek süreçlerinde 'etik ihlal' ve 'intihal' konusunda çok katı kurallara sahip. TÜBİTAK TR Dizin, son dönemde dergilere etik beyanlar konusunda ciddi standartlar getirse de, 'Yapay Zeka Beyanı' konusu Türkiye'de henüz gri bir alanda yer alıyor. Makaledeki uzmanların da belirttiği gibi, araştırmacılar bu araçları beyan etmekten korkuyor; çünkü 'yapay zeka kullandıysa makalenin bilimsel değeri düşüktür' gibi bir önyargının kurbanı olmak istemiyorlar.

Laboratuvar sektörümüzde görev yapan bilim insanları, klinik araştırmacılar ve akademi profesyonelleri için mesaj çok net: Dergi editörleri artık çok daha acımasız olacak. 'Sadece gramer düzelttim' savunması, yakın gelecekte gelişecek yapay zeka tespit algoritmaları karşısında sizi kurtarmayabilir. Türkiye'deki kurumların, yapay zekayı tamamen yasaklamak yerine, 'etik sınırları ve beyan standartları net çizilmiş' milli bir akademik yapay zeka politikası oluşturması artık ertelenemez bir ihtiyaçtır.

1 milyondan fazla tam metinli makale ve 5.000'den fazla dergi üzerinde yapılan incelemede, araştırmacıların dergi yapay zeka politikalarından bağımsız olarak bu araçları logaritmik olarak artan bir hızla kullandığı ve bu kullanım oranlarını hakem kurullarına beyan etmeden gizlediği ortaya çıkarılmıştır.

Araştırmacılar, yapay zeka desteği aldıklarını belirttiklerinde hakemler ve bilimsel otoriteler tarafından çalışmalarının değerinin düşürüleceği veya dışlanacağı korkusuyla bu durumu gizlemeyi tercih etmekte ve bunu bir tür 'temkinli yaklaşım' olarak savunmaktadır.

YÖK ve TÜBİTAK gibi kurumların etik ihlal ve intihal konusunda çok katı kuralları bulunmaktadır. Yeni nesil yapay zeka tespit algoritmalarının devreye girmesiyle, beyan edilmemiş yapay zeka kullanımları tespit edilebilir; bu da araştırmacıların makalelerinin geri çekilmesi (retraction) ve akademik kariyerlerinin zedelenmesi gibi çok ciddi riskler taşır.

Bülten Aboneliği

Sosyal Medyada Paylaşın

LabHaber

Tüm Hakları Saklıdır @ 2025 - Tasarım ve Yazılım: brain.work

labhaber, laboratuvar, analiz, biyoteknoloji ve test alanlarında faaliyet gösteren profesyoneller için hazırlanmış bağımsız bir sektörel haber platformudur.