Oxford Üniversitesi'nde öğretim görevlisi olan Mike Wooldridge, yapay zekâ botlarına dair önemli uyarılarda bulunarak kullanıcıların dikkatli olmaları gerektiğini vurguladı. Yapay zekâ botlarıyla paylaşılan kişisel bilgilerin güvenlik riskleri taşıdığını ifade eden Wooldridge, özellikle siyasi görüşler gibi hassas konuların bu botlarla paylaşılmaması gerektiğini belirtti.Sözcü'nün haberine göre; Yapay zekâ botlarının popülerliği arttıkça, kullanıcıların bu teknolojiyi kullanırken bilinçli olmalarının önemli olduğunu dile getiren Wooldridge, bu botlara derin sırların veya özel bilgilerin paylaşılmasının mantıklı olmadığını vurguladı. Kullanıcıların yapay zekâ botlarıyla etkileşimde bulunurken gizliliklerini korumaları gerektiğini söyleyen Wooldridge, bu tür teknolojik araçların güvenli ve sorumlu bir şekilde kullanılmasının önemine dikkat çekti.Yapay zekâ teknolojilerinin ilerlemesiyle birlikte gizlilik ve güvenlik endişeleri de artmaktadır. Wooldridge'ın bu uyarıları, yapay zekâ ile etkileşimde bulunan bireylerin daha bilinçli ve korumacı olmaları adına önemli bir rehber niteliği taşımaktadır.YAPAY ZEKANIN EMPATİSİ YOKWooldridge, yapay zekâ araçlarının güvenilir bir sırdaş gibi görülmemesi gerektiğini vurgulayarak, bu botların kullanıcıları ileride zor durumda bırakabileceğini ifade etti. Chatbot'lara paylaşılan her bilginin, gelecekteki versiyonların eğitimine yardımcı olacağını ve bu teknolojinin kullanıcılara daha önceki konuşmalara dayanarak tepki vereceğini belirtti.Sohbet botlarının kişilik kazanma sürecini, bulutlarda yüzleri tanıma sürecine benzeterek, yapay zekânın empati eksikliğine dikkat çekti. Wooldridge, "Empatisi yok. Teknolojinin yaptığı kesinlikle bu değil ve daha da önemlisi, hiçbir zaman hiçbir şey deneyimlemedi. Teknoloji, temelde kullanıcıya ne duymak istediğini söylemeye çalışmak üzere tasarlandı; yaptığı tam anlamıyla budur." dedi.VERİLER SİSTEME GİRİLİRSE GERİ ALINAMAZProfesör Wooldridge, yapay zeka modellerinin çalışma prensibi nedeniyle verilerin sisteme girdikten sonra geri almanın neredeyse imkansız olduğunu ekledi. Özellikle bu yılın başlarında, ChatGPT'nin arkasındaki şirket OpenAI, bir hata nedeniyle kullanıcıların diğer kullanıcıların sohbet geçmişlerinin bazı kısımlarını görmesine yol açtı ve bu durumu düzeltmek zorunda kaldı.