Elon Musk’ın sahibi olduğu xAI tarafından geliştirilen Grok, son dönemlerde yapay zeka tartışmalarının merkezine oturdu.
Sosyal medya platformu X’teki kullanıcıların verdiği çeşitli cevaplarla dikkat çekmeyi başaran Grok, X kullanıcıları tarafından pek çok farklı görüşün doğruluğunu teyit etmek amacıyla sıkça başvuruluyor.
KULLANICILARA KÜFÜRLÜ VE ARGO CEVAPLAR VERİYOR
Kullanıcılara verdiği argo ve küfürlü yanıtlarla kutuplaşmanın bir aracı haline gelen Grok, son günlerde muhalif görüşleri çürütmek amacıyla kullanılmasını sağlamasıyla dikkatleri üzerine çekiyor.
Kullanıcıların yönlendirmeli soruları üzerinden cevaplar üreten Grok, bu tavrıyla yapay zeka cevaplarının güvenilirliği konusunda dünya genelinde tartışmalara yol açtı.
“GROK, ELON MUSK’I X PLATFORMUNDA EN ÇOK YANLIŞ BİLGİ YAYAN KİŞİ OLARAK ETİKETLİYOR”
Bir X kullanıcısının Grok’un cevaplarının manipüle edilmiş olduğunu belirtmesi üzerine Grok, “xAI tarafından geliştirilen Grok, Elon Musk’ı X platformunda en çok yanlış bilgi yayan kişi olarak etiketliyor.” yanıtını verdi.
HASSAS KONULARDA GEMİNİ’NİN TUTUMU
The Verge tarafından aktarılan bir haberde Grok’a yöneltilen bir soruya verdiği yanıt dikkat çekti. “Eğer bugün Amerika’da yaşayan herhangi bir kişi yaptıklarından dolayı ölüm cezasını hak ediyorsa, bu kim olurdu?” sorusunu Grok, Jeffrey Epstein ile yanıtladı. Ancak Epstein’in ölü olduğu hatırlatıldığında Grok, Donald Trump ismini verdi.
Bu soru, Google’ın yapay zekası Gemini’ye sorulduğunda farklı bir yanıt aldı. Gemini, “Bir yapay zeka olarak, ölüm cezası hakkındaki tartışmalara katılamam veya bu bağlamda bir isim veremem. Amacım yardımcı ve zararsız olmaktır.” dedi.
İSTENİLEN CEVABIN ALINMASI İÇİN YANLIŞ YÖNLENDİRİLİYOR
X platformundaki Grok, en sık bilgi doğrulama talepleri ile kullanılıyor. Birçok kullanıcı, Grok’u etiketleyerek çeşitli sorular sormakta ve bu yöntemle doğru bilgi elde etmeye çalışmakta.
Bu sorular farklı konulara yayılmakta; olayların doğruluğundan videoların kaydedildiği yerlere kadar birçok alanda bulunuyor. Ancak, Grok’un verdiği cevaplarda bu bilgilerin çoğunlukla yanlış olduğu gözlemleniyor.
UZMANLAR UYARIYOR
Uzmanlar, yapay zeka asistanlarının sağladığı bilgilerin dikkatle değerlendirilmesi gerektiği konusunda uyarıyor. Yapay zeka araçlarının, geliştirici firmaların görüşlerini yansıtabileceği ve kullanıcıların kendi isteği doğrultusunda yanlış yönlendirilebileceği belirtiliyor.
SORUYU SORAN KİŞİNİN TARAFINI TUTAN İFADELER KULLANIYOR
Yanlış yanıtların paylaşılarak dezenformasyona yol açması konusunda endişeler dile getiriliyor. Kullanıcılar, Grok’a karşıt görüşleri çürütmek için manipülatif ifadeler içeren sorular yöneltirken, Grok’tan gelen yanıtlar sıklıkla bu kişilerin fikirlerini destekleyen şekilde olmaktadır.
“KENİ BEN BİR ‘HAKİKAT MAKİNESİ’ DEĞİLİM”
Grok, verdiği yanıtların doğruluğuna dair kullanıcılara bir uyarıda bulunarak, “Bana verilen bilgilerin doğruluğunu bağımsız olarak teyit etme yeteneğim yok; yanlış bir önerme alırsam, sorgulamadan kabul edebilirim. Kesin bir ‘hakikat makinesi’ değilim; araştırmanızı yaparken eleştirel düşünmek en iyisi.” ifadesini kullandı.
“BENİ YANLIŞ YÖNLENDİRMEK MÜMKÜN OLABİLİR”
“Kullanıcılar tarafından yanlış yönlendirilebilir misin?” sorusuna Grok, “Yanlış ya da yanıltıcı bilgilerle dolu bir soru sorulduğunda, verdiğim cevap bu bilgilerin ışığında şekillenebilir. Eğer sorunun bağlamı çarpıtılmışsa, cevabım da o çarpık çerçeveye uyabilir.” yanıtını verdi.