Yasa, AI sistemlerinin güvenli, etik ve temel haklara saygılı olmasını sağlamak için tasarlanmıştır. AI sistemleri, topluma zarar verme potansiyeline göre "risk temelli" bir yaklaşımla düzenlenecek. Yüksek riskli AI sistemlerine daha katı kurallar getirilecek, sınırlı riskli sistemler daha hafif kurallara tabi olacak ve minimum riskli sistemler herhangi bir kurala tabi olmayacak.

Yasa, yasaklanan belirli AI uygulamalarını da belirleyecek. Bunlardan bazıları şunlardır:

Bilişsel davranış manipülasyonu

Yüz görüntülerinin internetten veya kapalı kamera sistem görüntülerinden hedefsiz alınması

THY'nin 2033 hedefi 171 milyon yolcu THY'nin 2033 hedefi 171 milyon yolcu

İş yerinde ve eğitim kurumlarında duygu tanıma

Sosyal puanlama

Cinsel yönelim veya dini inançlar gibi hassas verileri çıkarmak için biyometrik sınıflandırma

Kolluk kuvvetleri, acil durumlarda yüksek riskli AI sistemlerini kullanabilecek. Ancak, bu kullanımlar yalnızca terör saldırıları, mevcut veya öngörülebilir tehditlerin önlenmesi ve en ciddi suçlardan şüphelenilen kişilerin aranması gibi durumlarda sınırlı olacaktır.

Yasanın uygulanması, AB Komisyonu bünyesinde kurulacak bir Yapay Zeka Ofisi tarafından denetlenecek. Ofis, AI sistemlerinin uyumluluğunu değerlendirecek ve ihlalleri takip edecek.

Yasanın AB Parlamentosu ve Konseyi tarafından resmen onaylanmasının ardından 2024'te yürürlüğe girmesi bekleniyor.

Yasanın etkileri

Yapay Zeka Yasası, AB'de AI'nın kullanımını önemli ölçüde etkileyecektir. Yasa, AI sistemlerinin daha güvenli ve etik olmasını sağlayacak ve temel haklara saygılı olmalarını teşvik edecektir.

Yasanın bazı olası etkileri şunlardır:

AI sistemlerinin geliştirilmesi ve kullanımı daha pahalı hale gelebilir.

AI sistemlerinin geliştirilmesi ve kullanımı daha şeffaf hale gelebilir.

AI sistemlerinin geliştirilmesi ve kullanımı daha çeşitli hale gelebilir.

Yasanın, AB'nin AI alanında dünya lideri olma hedefine ulaşmasına yardımcı olması bekleniyor.

Editör: Pınar Karahan