Czy prawo ochroni nas przed sztuczną inteligencją?

W czerwcu Parlament Europejski przegłosował regulacje związane ze sztuczną inteligencją, tzw. AI Act. Wiele osób zastanawia się teraz, czy dokument ten realnie chroni nas przed zagrożeniami AI? Czy jego twórcy pominęli istotne kwestie w zakresie m.in. cyberbezpieczeństwa, które szybko odczuje także rynek tradycyjnego biznesu?

Najważniejszą częścią AI Act są kategorie ryzyka związane ze stosowaniem sztucznej inteligencji – minimalne, ograniczone, wysokie oraz niedopuszczalne. Szczególne znaczenie dla rozwoju systemów AI mają dwie ostatnie. Kategoria „wysokiego ryzyka” dotyczy sytuacji, w której sztuczna inteligencja może mieć negatywny wpływ na bezpieczeństwo osób i państw (w tym bezpieczeństwo militarne) oraz prawa człowieka i jego wolności.
– Systemy wysokiego ryzyka mogą mieć krytyczny wpływ między innymi na ludzkie życie i zdrowie. Chodzi o modele do tworzenia recept czy dobierania lekarstw. Konsekwencje tego typu aktywności AI mogą być poważne. Dlatego tego rodzaju systemy z kategorii wysokiego ryzyka mają znaleźć się pod szczególną zewnętrzną kontrolą – mówi Maksymilian Arciemowicz, ekspert ds. cyberbezpieczeństwa oraz biznesowego wykorzystania sztucznej inteligencji w Capgemini Polska.
Niedopuszczalne ryzyko – zakaz w Unii Europejskiej
Z punktu widzenia bezpieczeństwa najważniejsza w AI Act jest kategoria „niedopuszczalne ryzyko”. Systemy AI przyporządkowane do tej kategorii mają być całkowicie zakazane w Unii Europejskiej. Chodzi o wyjątkowo wrażliwe dane, które mogą być wykorzystane do nadużyć w sferze bezpieczeństwa i praw obywateli. Twórcy AI Act uznali, że poznawczo-behawioralne manipulowanie ludźmi, scoring (klasyfikowanie ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech [...]

niebezpiecznik.pl/post/czy-pra

#ai #aiact #artykulsponsorowany #capgemini #prawo #sztucznainteligencja

Last updated 1 year ago