W skrócie, AI Act będzie regulować rozwój, wprowadzanie na rynek i wykorzystanie AI w Europie zgodnie z podejściem opartym na ryzyku, co oznacza, że im bardziej system AI jest kwalifikowany jako ryzykowny (poziom niskiego ryzyko, poziom wysokiego ryzyka, zakazane), tym bardziej rygorystyczne wymogi regulacyjne musi on spełnić. Sztuczna inteligencja wysokiego ryzyka obejmuje zastosowania związane z bezpieczeństwem w różnych branżach, takich jak samochody, samoloty, urządzenia medyczne lub zabawki, ale także pewne obszary użytkowania, w tym edukację (!), zatrudnienie, egzekwowanie prawa lub infrastrukturę krytyczną. AI wysokiego ryzyka musi przejść ocenę zgodności, aby spełnić wymogi, np. w zakresie zarządzania danymi, wyjaśnialności, dokładności, cyberbezpieczeństwa i nadzoru ludzkiego. Dostawcy AI wysokiego ryzyka również stoją przed kompleksowymi obowiązkami.
Zatem - Czy słyszałeś wcześniej o AI Act? *