Kopya çektiği için üniversiteden atıldı, hile yapmak için yapay zeka geliştirdi

Öğrenciler Artık Hile Yapmak İçin Yapay Zeka Kullanıyor!

ChatGPT ilk çıktığında, bazı okullar öğrencilerin yapay zekayı hile yapmak için kullanabileceği endişesiyle AI aracını hemen yasaklamıştı. Bugünse, özellikle hile yapmak için yapılmış yeni bir AI aracı öğrencilerin gözdesi olmuş durumda.

Aslında, Cluely isimli hile amaçlı yapay zeka servisini geliştiren iki üniversite öğrencisinden biri, kopya nedeniyle Columbia Üniversitesi’nden atılmış bir öğrenci. Bu yapay zeka algoritmasının ilk çıkış noktası ise, üniversitedeki öğrencilere Amazon’da işe girmek için yaptıkları online mülakatta hile yapmalarına yardım etmesi için geliştirilmiş olması. Üniversite yönetimi bunu öğrendiğinde de yapay zeka algoritmasını geliştiren öğrenciyi okuldan atıyor.

Ancak bu öykü yapay zeka yatırımcıları tarafından bu kadar tepki görmedi. Hatta yatırımcılar, Cluely’nin geliştirilmesine ortak olmak için 5.3 milyon dolar para yatırdı. Şimdi ortaya çıkan ürün, iş görüşmelerinde veya online okul sınavlarında hile yapmaya yardımcı olmanın dışında, başka yeteneklere de sahip.

Şu anda Mac’lerde bulunan Cluely uygulaması, Zoom görüşmesindeki diğer kişinin göremediği bir tarayıcı içi pencerede çalışıyor. Yapay zeka, diğer kişinin söylediklerini dinliyor, bu konuşmayı metne dönüştürüyor ve bu konuşmayı analiz ederek kullanıcıya vermesi gereken cevabı oluşturuyor. Yani karşı taraftaki sınavcının sorduğu soruların cevabını anında kullanıcının karşısına çıkarıyor.

İşe Girmek İsteyenlerin Dikkatine!

Öte yandan, bu yapay zeka servisinde ciddi bazı yasal sorunlar var. Cluely kullanmak, her şeyi kaydeden ve ardından bu verileri buluta gönderen bir üçüncü tarafı görüntülü aramaya dahil etmek anlamına geliyor. İki kişinin arasındaki iletişimi kaydetmek ve bunu izinsiz olarak üçüncü taraflara dinletmek ise ABD ve Türkiye dahil pek çok ülkede yasak ve ciddi bir suç. Yani, işe girmek isteyen kullanıcılar daha ilk dakikadan suç işleyerek bu işe girmeye çalışıyor.

Bu hem etik olarak ciddi bir sorun hem de yasal açıdan büyük bir risk taşıyor. Eğer şirket durumu fark ederse, katılımcı genç hayatının geri kalanını sabıkalı biri olarak yaşamak zorunda kalabilir.

Related Posts

Aman dikkat: Sahte Telegram Premium tuzağına düşmeyin

Telegram uygulamasını çok kullanışlı buluyor olabilirsiniz ama resmi Telegram Premium web sitesini taklit eden korsanlara dikkat etmenizi tavsiye ediyoruz.

Android’e devrim niteliğinde yenilik geliyor

Google Android cihazlarda yedekleme sistemini daha esnek hale getirmek için yeni özellikler üzerinde çalışmalar yürütüyor. Google Play Hizmetleri’nin 26.32.31 beta sürümünde yer alan bilgilere göre, farklı klasörlerin buluta yedeklenmesi için ek …

Yenilenebilir enerjiyle sualtı veri merkezleri! Okyanusun derinliklerinde teknoloji

Geleneksel veri merkezlerinin yüksek enerji tüketimi ve çevresel etkileri, teknoloji devlerini yeni çözümler aramaya itti. Bu arayışta, sualtı veri merkezleri sürdürülebilirlik, sabit sıcaklıklar ve yenilenebilir enerjiyle dikkat çekti. Microsoft’un …

Infiniti SUV portfolyosunu QX80 Track ve Terrain Spec ile zenginleştirdiyor

Infiniti, amiral gemisi QX80’i temel alan iki yeni konseptle Monterey Car Week etkinliğinde otomobil severlerin karşısına çıktı. QX80 Track Spec, adından da anlaşılacağı üzere şehir içi performansa odaklanan bir model olarak öne çıkıyor. Mat siyah …

4 tekerleğinizi de kontrol edin: Bu işaret lastiğin ömrünün bittiğini gösteriyor

Aracınızın lastikleri sandığınızdan daha fazla şey söylüyor olabilir. Uzmanlara göre, lastik üzerindeki küçük bir işaret aslında ömrünün dolduğunu ve artık değiştirilmesi gerektiğini gösteriyor. Bu uyarıyı görmezden gelmek ise hem güvenliği hem de cüzdanı ciddi şekilde riske atıyor.

Sınıfların yeni yüzü robot öğretmenler sahneye çıkıyor

Japonya’da Eğitimde Robot Devrimi: Sınıflarda Yeni Bir Dönem BaşlıyorJaponya’nın başkenti Tokyo’da bir ilkokul, eğitimde çığır açan bir uygulamaya ev sahipliği yapıyor: Robot öğretmenler. Tokyo Üniversitesi tarafından geliştirilen ve “Saya” adı …