
Bilim dünyasında her gün binlerce yeni makale yayımlanıyor. Bu devasa bilgi akışı, araştırmacıların literatürü güncel takip etmesini neredeyse imkansız hale getirirken, mevcut yapay zeka modellerinin güvenilirliği konusundaki soru işaretleri de artıyor. İşte bu noktada, Washington Üniversitesi Bilgisayar Bilimleri Bölümü’nden Hannaneh Hajishirzi ve Akari Asai liderliğindeki ekip, bilimsel araştırmaların kaderini değiştirebilecek bir çözümle sahneye çıktı: OpenScholar.
Nature dergisinde yayımlanan çalışma, OpenScholar’ın bilimsel literatür taramasında mevcut Büyük Dil Modellerinden (LLM) çok daha üstün bir performans sergilediğini ortaya koydu. Bilim dünyasının en büyük çekincesi olan ve yapay zekanın olmayan bilgileri gerçekmiş gibi sunduğu “halüsinasyon” problemi, bu yeni modelle minimize ediliyor. Ekip, ChatGPT (GPT-4o) ve Perplexity gibi popüler araçların, sentezleme yetenekleri güçlü olsa da, doğru kaynak gösterme ve güncel veriyi işleme konusunda yetersiz kaldığını vurguluyor.
“Mevcut yapay zeka araçları cevapları sentezlemekte giderek iyileşiyor, ancak asıl büyük soru şu: Bu cevapların doğruluğuna güvenebilir miyiz?” – Hannaneh Hajishirzi, Washington Üniversitesi
Hajishirzi’nin de belirttiği gibi, genel amaçlı LLM’ler genellikle eğitim verilerinin tarihine sıkışıp kalıyor ve model eğitildikten sonra ortaya çıkan yeni araştırmaları kapsayamıyor. Daha da kötüsü, bazen rastgele bir blog yazısını bilimsel bir makale gibi referans gösterebiliyorlar.
OpenScholar’ı rakiplerinden ayıran en temel özellik, çalışma mimarisinde yatıyor. Araştırmacılar, bu modeli eğitmek için 45 milyon açık erişimli bilimsel makaleden oluşan devasa bir veri seti kullandılar. Ancak asıl inovasyon, Retrieval-Augmented Generation (Geri Getirme Artırılmış Üretim – RAG) tekniğinin entegrasyonunda gizli.
Bu teknik sayesinde OpenScholar, sadece eğitim verisine bağlı kalmıyor; aynı zamanda dış bilgi tabanlarından anlık olarak ilgili bilgileri çekip yanıtlarını güncelleyebiliyor. Bu, laboratuvar ortamında çalışan bir bilim insanı için hayati önem taşıyan “en güncel veriye erişim” sorununu doğrudan hedef alıyor.
Modelin başarısı sadece otomatik metriklerle değil, aynı zamanda titiz bir insan değerlendirmesiyle de kanıtlandı. Bilgisayar bilimleri, fizik ve biyotıp gibi farklı disiplinlerden gelen lisansüstü öğrenciler ve doktora sonrası araştırmacılardan oluşan bir uzman paneli, OpenScholar’ın performansını değerlendirdi.
Projenin en dikkat çekici yanlarından biri de tamamen açık kaynaklı (open-source) olması. Araştırmanın ortak yazarlarından Akari Asai, “Mevcut yapay zeka sistemleri bilim insanlarının spesifik ihtiyaçları için tasarlanmamıştı,” diyerek OpenScholar’ın şeffaf yapısının önemine dikkat çekiyor. Demo sürümünün yayınlanmasının ardından beklenenden çok daha fazla ilgi gördüklerini belirten ekip, şimdiden Deep Research Tulu adını verdikleri ve daha da kapsamlı yanıtlar üretebilen yeni bir model üzerinde çalışmaya başladı bile.
Bu gelişme, laboratuvar yöneticileri ve Ar-Ge departmanları için şu anlama geliyor: Artık literatür taraması için harcanan günler, saniyelere inebilir ve elde edilen verilerin güvenilirliği, ticari sohbet botlarının sunduğundan çok daha yüksek bir standartta garanti altına alınabilir.
Tüm Hakları Saklıdır @ 2025 - Tasarım ve Yazılım: brain.work