
Bilim, Yapay Zekadan Nasıl Yararlanabilir? Riskler ve Öngörü Algoritmalarını Yanlış Anlama
Bonn Üniversitesi’nin çalışması, yapay zekanın (AI) kimya, biyoloji ve tıpta yeni hipotezler geliştirmedeki potansiyelini inceliyor. Ancak, AI modellerinin karar alma süreçleri genellikle belirsiz ve genelleştirilmesi zor. Çalışma, AI sonuçlarına körü körüne güvenmenin risklerini vurguluyor ve modellerin güvenilir olduğu koşulları açıklıyor. Özellikle, AI’nın kimyasal veya biyolojik süreçleri anlamadığı, yalnızca istatistiksel korelasyonlara dayandığı belirtiliyor. Bilimsel doğruluk için deneysel doğrulama ve mantıksal geçerlilik kontrolleri kritik önem taşıyor.
Yapay Zekanın Bilimdeki Potansiyeli
Kimya, biyoloji ve tıp alanlarındaki araştırmacılar, yeni hipotezler geliştirmek için giderek daha fazla yapay zeka (AI) modellerine yöneliyor. Bonn Üniversitesi’nden Prof. Dr. Jürgen Bajorath liderliğinde yayımlanan bir çalışma, AI’nın bilimsel araştırmalardaki gücünü ve sınırlarını ele alıyor. Çalışma, AI modellerinin tahminlerini nasıl ürettiğinin genellikle net olmadığını ve sonuçlarının genelleştirilmesinin zor olabileceğini vurguluyor. Aynı zamanda, araştırmacıların modellere hangi koşullarda güvenebileceğini ortaya koyuyor.
AI Modelleri: Kara Kutular
AI modelleri, büyük veri setlerinde insan gözünden kaçabilecek korelasyonları tespit etme konusunda inanılmaz bir güce sahip. Ancak, tahminlerini nasıl oluşturdukları dışarıdan bakıldığında genellikle belirsizdir. Örneğin, bir AI modeline binlerce araba fotoğrafı gösterildiğinde, yeni bir görüntünün araba olup olmadığını güvenilir bir şekilde belirtebilir. Ancak bu kararı hangi kriterlere dayandırdığı bilinmeyebilir. Model, bir arabanın dört tekerlek, ön cam ve egzoz borusuna sahip olduğunu mu öğrendi, yoksa örneğin çatıdaki antene mi odaklandı? Eğer antene odaklandıysa, bir radyoyu bile araba olarak sınıflandırabilir.
Bajorath, “AI modelleri kara kutulardır,” diyor. “Bu nedenle, sonuçlarına körü körüne güvenmemeli ve bunlardan kesin yargılar çıkarmamalıyız.” Lamarr Yapay Zeka ve Makine Öğrenimi Enstitüsü’nde AI ve Yaşam Bilimleri bölümünü yöneten Bajorath, modellerin hangi durumlarda güvenilir olduğunu ve hangi durumlarda yanıltıcı olabileceğini araştırıyor.
Açıklanabilirlik ve Yorumlanabilirlik
AI araştırmalarında “açıklanabilirlik” kavramı, bu kara kutuya bir delik açma çabalarını ifade eder. Model, kararlarını hangi kriterlere dayandırdığını (örneğin, dört tekerlek mi, anten mi) açıklamalıdır. Bajorath, “Kara kutuyu açmak, şu anda AI araştırmalarının merkezi bir konusu,” diyor. Bazı AI modelleri, yalnızca diğer modellerin sonuçlarını daha anlaşılır kılmak için geliştiriliyor.
Ancak açıklanabilirlik tek başına yeterli değil. Modelin seçtiği kriterlerden hangi sonuçların çıkarılabileceği de önemli. Örneğin, eğer model bir arabayı anten üzerinden tanımlıyorsa, bir insan bu özelliğin arabaları tanımlamak için uygun olmadığını hemen fark eder. Ancak, AI modelleri genellikle insan gözünden kaçan korelasyonları bulmak için kullanılır. Bu durumda, bir uzaylı gibi arabanın ne olduğunu bilmediğimizi düşünelim; antenin iyi bir kriter olup olmadığını değerlendiremeyiz.
Kimyasal Dil Modelleri ve Yeni Moleküller
Kimyada ve ilaç araştırmalarında kimyasal dil modelleri büyük ilgi görüyor. Bu modellere, belirli bir biyolojik aktiviteye sahip çok sayıda molekül verilebilir. Model, bu verilerden öğrenir ve ideal olarak aynı aktiviteye sahip, ancak yeni bir yapıya sahip bir molekül önerir. Buna üretken modelleme denir. Ancak model, genellikle bu çözüme neden ulaştığını açıklayamaz. Bu durumda, açıklanabilir AI yöntemlerinin sonradan uygulanması gerekebilir.
Bajorath, bu açıklamaların aşırı yorumlanmaması gerektiği konusunda uyarıyor: “AI modelleri kimyadan anlamaz. Bunlar tamamen istatistiksel ve korelasyon temellidir; kimyasal veya biyolojik olarak anlamlı olsun ya da olmasın, her türlü ayırt edici özelliğe dikkat eder.” Modelin önerdiği molekül istenen özelliklere sahip olabilir, ancak bunun nedeni, kimyasal bilgi veya sezgilerle beklenenden tamamen farklı olabilir. AI’nın tahmini özelliklerle doğal süreçlerin sonuçları arasındaki olası nedenselliği değerlendirmek için deneyler gereklidir. Araştırmacıların önerilen molekülü ve AI’nın önemli gördüğü yapısal motifi içeren diğer molekülleri sentezlemesi ve test etmesi gerekir.
Mantıksal Geçerlilik Kontrolleri
Bu tür testler zaman alıcı ve maliyetlidir. Bajorath, AI sonuçlarının bilimsel olarak makul nedensel ilişkiler ararken aşırı yorumlanmaması gerektiğini vurguluyor. Ona göre, sağlam bir bilimsel mantığa dayalı geçerlilik kontrolü kritik önem taşır: AI’nın önerdiği özellik, istenen kimyasal veya biyolojik özelliği gerçekten sağlayabilir mi? AI’nın önerisini takip etmeye değer mi, yoksa bu, araba anteni gibi rastgele bir korelasyon mu? Bu tür artefaktlar, işlevle ilgisiz olabilir.
AI’nın Güçlü ve Zayıf Yönleri
Bajorath, uyarlanabilir algoritmaların bilimsel araştırmaları birçok alanda önemli ölçüde ilerletme potansiyeline sahip olduğunu vurguluyor. Ancak, bu yaklaşımların güçlü yönlerinin ve özellikle zayıf yönlerinin farkında olunması gerektiğini belirtiyor. AI, büyük veri setlerinde korelasyonları tespit etmede eşsiz bir yeteneğe sahip olsa da, kimyasal veya biyolojik süreçlerin altında yatan mekanizmaları anlamaz. Bu nedenle, AI sonuçlarının deneysel doğrulama ile desteklenmesi şarttır.
Yayın Tarihi ve Kaynak: Çalışma, 4 Nisan 2025 tarihinde Cell Reports Physical Science dergisinde yayınlandı.
Referans: Jürgen Bajorath, “From Scientific Theory to Duality of Predictive Artificial Intelligence Models,” Cell Reports Physical Science, 2025; DOI: 10.1016/j.xcrp.2025.102516.
İlk yorum yapan siz olun