Proofig ile yeni bir ortaklık duyurusu! Daha fazla bilgi edinin

Deneme Kontrolcüleri, Yapay Zeka ve İntihal

Kader Akinode
8 Aralık 2025

Deneme kontrolü nedir?

Geçmişte, "deneme kontrolörü" bir metni yazım, dilbilgisi ve kelime hataları açısından analiz eden araçlar için kullanılan bir terimdi. Recite'de görüldüğü gibi, alıntılardaki sorunları kontrol etmek için de kullanılabilirlerdi. Popüler bir eğitim aracı olan Turnitin, intihal kontrolünde büyük yardımcı olmuştur.

Şu anda, yapay zeka patlaması eğitimcileri yapay zeka tarafından üretilen içeriği tarayan kontrol araçlarını dikkate almaya itmiştir.

AI kağıt kontrolörleri doğru mu?

Yüksek yanlış pozitif oranları (FPR), eğitimciler için büyük bir endişe kaynağıdır. Akademik dürüstlükle ilgili bir iddiada bulunmak riskli olabilir, çünkü yanlış pozitif bir sonuca dayalı olarak yapılan bir iddia, öğretmen-öğrenci ilişkisine zarar verebilir.

Ancak, Pangram'ın %0,01'lik FPR değeri, onu yükseköğretimde kullanım için güvenilir bir dedektör haline getirir. Bu durum, Pangram'ın piyasada bulunan en doğru AI dedektörü olduğu sonucuna varan üçüncü taraflarca da doğrulanmıştır.

AI Deneme Kontrolü ve İntihal Kontrolü

Bir AI deneme kontrolörü, belirli bir metinde AI kullanımını not eder. İntihal kontrolörleri, bir metinde harici materyal kullanımını belirler.

Pangram, yapay zeka tarafından üretilen ve intihal edilmiş içeriği tespit edebilen ticari bir araçtır. Pangram, metni analiz ederken her ikisini de ayrı durumlar olarak kaydeder.

Yapay zeka insan eserlerini intihal edebilir mi?

Bir intihal kontrol aracı, bir makaleyi önceden var olan metinlerle karşılaştırarak benzerlikleri bulur. Bir AI makale kontrol aracı, metni mevcut AI modellerine benzer dil kalıpları açısından tarar.

ChatGPT gibi LLM'ler, büyük veri kümelerini kullanarak metin üretir ve bu verilerden intihal yaptığı bilinmektedir. West Virginia Üniversitesi Hukuk Fakültesi Doçenti Amy B. Cyphert'in bir dergisinde şöyle belirtmektedir:

“Araştırmalar, telif hakkı bulunan materyallerin veri setine ne kadar sık dahil edilirse, LLM'nin o eserden değiştirilmemiş metinler içeren bir çıktı üretme olasılığının o kadar yüksek olduğunu göstermektedir.”

Ezberleme, bir LLM'nin eğitim setindeki metinden cümleleri yeniden üretmesi durumunda gerçekleşir. Kasıtlı olarak veya başka bir şekilde, LLM'ler başkalarının çalışmalarını büyük ölçüde yeniden üretmeye yönlendirilebilir. Bu, yönlendirmenin nihai sonucunun kısmen veya tamamen intihal olabileceği anlamına gelir.

Araştırmacılar intihalin daha ayrıntılı bir tanımını tartışmaya devam ederken, üniversitelerin akademik dürüstlük politikaları intihalin, başkasının çalışmasını kaynak göstermeden kullanmak olduğunu belirtir. Michigan Üniversitesi, intihalin kasıtlı veya kasıtsız olabileceğini belirtir. Oxford Üniversitesi, intihalin çeşitli biçimlerini ayrıntılı olarak açıklar: kaynak gösterilmeden aynen alıntı yapmak, internetten kopyala-yapıştır yapmak, başka kelimelerle ifade etmek, gizli anlaşma yapmak, yardım aldığını belirtmemek vb.

Yani bir akademik kurumda:

Bir öğrenci yapay zeka tarafından üretilen bir çalışmayı teslim ettiğinde, insan tarafından yazılmış bir çalışmayı da intihal etmiş olabilir!

İnsanlar AI Tarafından Üretilen Eserleri Çalabilir mi?

Bazı standartlara göre, belki!

Bir öğrenci, yapay zeka tarafından üretilen bir çalışmayı yapay zekayı kaynak göstermeden sunarsa, akademik dürüstlük ihlali söz konusu olur. Güney Florida Üniversitesi'nin politikası şu şekildedir:

"AI sohbet robotları ve diğer üretken AI araçları, komutlara yanıt olarak yeni metinler ve görüntüler ürettiğinden, üretken AI'dan alınan materyalleri kullanmak, intihalden çok hayalet yazarlık olarak değerlendirilebilir."

Yayın Etiği Komitesi, yapay zekanın bir araştırma makalesinde yazar olarak kabul edilemeyeceğini belirtmektedir, çünkü “yapay zeka araçları, sunulan çalışma için sorumluluk alamadıkları için yazarlık gerekliliklerini karşılayamazlar. Tüzel kişilikleri olmadığı için, çıkar çatışmalarının varlığını veya yokluğunu iddia edemezler ve telif hakkı ve lisans anlaşmalarını yönetemezler.”

Bazı akademik kurumlar, yapay zeka tarafından üretilen içeriğin kullanımının kesinlikle intihal teşkil ettiğine inanmaktadır:

“İntihal, size ait olmayan fikirleri, araştırmaları veya yazıları kendinizinmiş gibi sunma eylemidir. İntihal örnekleri şunlardır: Başka bir kişinin veya bir yapay zeka aracının gerçek kelimelerini veya görüntülerini, kelimelerin kaynağını belirten tırnak işaretleri ve alıntılar kullanmadan kopyalamak. - New York Şehir Üniversitesi

“İntihal, başkalarının fikirlerini alıp, istemeden de olsa kendi fikrinmiş gibi sunmaktır. Bir fikri özetlemek veya çalışmanızı yazmak için yapay zeka kullanıyorsanız, bu %100 sizin çalışmanız değildir.” - Ohio Üniversitesi

Diğer durumlarda ise, eğitimciler aşağıdaki gibi yapay zeka politikaları oluşturma sorumluluğunu üstlenirler:

“Bireysel dersler veya ödevler için net kurallar, öğrencilerin sizin ulaşmalarını istediğiniz öğrenme hedeflerine odaklanmalarını sağlar. Öğrenciler genellikle Generative AI'yı ne zaman ve nasıl kullanabileceklerinden emin olmadıkları için, bazı AI kullanımları öğrencilerin öğrenmesini destekleyebilirken, diğer kullanımlar öğrencilerin kendi başlarına çalışması gereken önemli süreçleri kesintiye uğratabileceğinden, politikalar belirli ders ve ödevlerinize göre uyarlanmışsa en yararlı olabilir.” - UPenn

"AI kullanımına ilişkin net politikalar oluşturmak, akademik dürüstlüğü korumak ve öğrencilerin beklentilerini belirlemek için çok önemlidir. Bu politikalar, ChatGPT, Perplexity.ai veya Grammarly gibi AI araçlarının ne zaman ve nasıl kullanılabileceğini belirtmeli ve öğrencilerin akademik çalışmalarda AI'nın etik boyutunu anlamalarını sağlamalıdır." - NYU

Üniversite politikalarının bu küçük örneğinden, kurumların AI kullanımı ve intihal konusuna farklı bakış açıları olduğunu anlayabiliriz. AI bir araçtır ve yazar değildir, ancak AI tarafından üretilen çıktıları kaynak göstermeden sunmak dürüst olmayan bir davranıştır. Eğitimciler, öğrencilerinden beklentilerini açıkça belirtmelidir. Uygulanabilir ders politikaları hakkında daha fazla bilgi edinmek için, Profesör Christopher Ostro AI ile kopya çekme sorununu ele almak için incelikli bir yaklaşım sunmuştur.

Pangram, özellikle akademi dünyasında yapay zeka kullanımı ve harici içerik kullanımına şeffaflık odaklı bir yaklaşım benimsemektedir. Modelimizle ilgileniyorsanız, Pangram'ın yapay zeka ve intihal tespit araçlarını ücretsiz olarak deneyin!

Haber bültenimize abone olun
AI algılama araştırmalarımızla ilgili aylık güncellemeleri paylaşıyoruz.