Teknoloji devi Google, çalışanlarına yönelik yeni bir siyaset benimsemiş durumda. Şirketin ortaya koyduğu siyaset gereği, çalışanların yapay zeka tabanlı sohbet botlarını kullanmaları yasaklanmış durumda. Bu kararın gerisinde, kapalılık telaşları ve data güvenliği mevzularının tesirli olduğu belirtiliyor.
Google, ChatGPT ve kendi modeli Bard üzere sohbet botlarını geliştirmiş olsa da, bu araçları kendi çalışanları için kullanmayı tavsiye etmiyor. Şirket, yapay zeka tabanlı sohbet botlarının kullanımında potansiyel güvenlik riskleri bulunduğunu vurguluyor ve bu nedenle çalışanlarının bu araçları kullanmaktan kaçınmasını istiyor.
Google çalışanlarına kendi yapay zekası Bard’ı kullanmayı yasakladı!
Gizlilik tasaları, bilhassa yapay zeka tabanlı sistemlerin kullanıcıların ferdî bilgilerine erişebilme yeteneğiyle ilgili olarak ortaya çıkıyor. Çalışanlarının şahsî yahut hassas bilgilerini muhafaza sorumluluğunu taşıyan Google, bu cins yapay zeka araçlarının güvenliğini sağlamak ve bilgi güvenliğini korumak için tedbirler almayı tercih ediyor.
Google’ın bu siyaseti, şirketin bilgi saklılığı ve güvenliği mevzularında hassaslığını yansıtıyor. Bilgi güvenliği, günümüzde giderek artan bir ehemmiyete sahip olan bir bahistir ve şirketler, çalışanlarının bilgilerini ve datalarını korumak için gereken adımları atıyor.
Google’ın yapay zeka tabanlı sohbet botlarını kullanmama siyaseti, şirket içinde data güvenliği ve zımnilik mevzularında bir dönüşümün bir modülü olarak görülebilir. Bu siyasetin, çalışanların bilgilerini daha âlâ müdafaa maksadını taşıdığı ve şirketin data güvenliği alanında liderliğini sürdürmeyi hedeflediği söylenebilir.