ChatGPT, kurallarını sessizce değiştirdi: Artık ABD ordusu kullanabilecek
ChatGPT’nin yapımcısı OpenAI, sessizce kurallarını değiştirdi ve araçlarının askeri amaçlarla kullanılmasına yönelik yasağı kaldırdı. Son olarak şirket, halihazırda Savunma Bakanlığı ile çalıştığını açıkladı.
Uzmanlar, daha önce, herhangi bir insan müdahalesi olmadan öldürebilen ‘katil robotlar’ sayesinde yapay zekanın dünya çapındaki çatışmaları tırmandırabileceği yönündeki korkularını dile getirmişti.
“Riskli faaliyetlerde kullanılamaz” kuralı kalktı
Geçen hafta meydana gelen kural değişikliği ile birlikte, “Silah geliştirme, askeriye ve savaş dahil olmak üzere yüksek fiziksel zarar riski taşıyan faaliyetler’ için modellerimizin kullanılmasına izin vermiyoruz.” cümlesi kaldırıldı.
Bir OpenAI sözcüsü, 100 milyar dolarlık bir değerlemeyle para toplamak için görüşmelerde bulunan şirketin, siber güvenlik araçları üzerinde Savunma Bakanlığı ile birlikte çalıştığını söyledi.
Tartışmaların farkında olduklarını söyleyen OpenAI sözcüsü, şu ifadeleri kullandı:
Politikamız, araçlarımızın insanlara zarar vermek, silah geliştirmek, iletişim gözetimi yapmak veya başkalarına zarar vermek veya mülkleri yok etmek için kullanılmasına izin vermiyordu. Ancak misyonumuzla uyumlu ulusal güvenlik kullanım durumları var.
Örneğin, kritik altyapı ve endüstrinin bağlı olduğu açık kaynaklı yazılımların güvenliğini sağlamak için yeni siber güvenlik araçlarının oluşturulmasını teşvik etmek amacıyla, halihazırda İleri Savunma Araştırma Projeleri Ajansı (DARPA) ile çalışıyoruz.
Bu yararlı kullanım durumlarına, önceki politikalarımızda izin verilip verilmeyeceği açık değildi. Dolayısıyla politika güncellememizin amacı, netlik sağlamak ve bu tartışmaları sonlandırmak.
Ülkelerden yapay zeka önlemi
Geçen yıl aralarında ABD ve Çin’in de bulunduğu 60 ülke, yapay zekanın (AI) askeri nedenlerle kullanımını sınırlamak için bir ‘hareket çağrısı’ imzaladı.
Lahey’deki insan hakları uzmanları, ‘hareket çağrısının’ yasal olarak bağlayıcı olmadığına ve ölümcül yapay zekalı insansız hava araçları veya yapay zekanın mevcut çatışmaları tırmandırabileceği gibi endişelere değinmediğine dikkat çekti.
Yapay zekanın ‘Büyük Teknoloji’ kuruluşları tarafından askeri amaçlarla kullanılması daha önce tartışmalara neden olmuştu.
2018’de binlerce Google çalışanı, şirketin yapay zeka araçlarının drone gözetim görüntülerini analiz etmek için kullanılmasını öngören Pentagon sözleşmesini protesto etti.
Microsoft çalışanları ise askerlere artırılmış gerçeklik başlıkları sağlanmasına yönelik 480 milyon dolarlık bir sözleşmeye tepki gösterdi.
Elon Musk uyarmıştı
2017’de Elon Musk’ın da aralarında bulunduğu teknoloji liderleri, BM’ye, kimyasal silahları ve insanları kör etmek için üretilen lazerleri yasaklayan yasalara benzer yasalar gibi, otonom silahların yasaklanması çağrısında bulundu.
Uzmanlar, tamamen otonom silahlarla dolu ‘Pandora’nın kutusu’ bir kez açıldığında, onu tekrar kapatmanın imkansız olabileceği konusunda uyarıyor.