Przejdź do treści głównej

Doskonałość i wiarygodność sztucznej inteligencji

Wiarygodna sztuczna inteligencja (AI)

Korzyści z AI

UE dysponuje potencjałem, który może jej zapewnić pozycję światowego lidera w dziedzinie bezpiecznej AI. Przez opracowanie solidnych ram regulacyjnych opartych na prawach człowieka i podstawowych wartościach UE może rozwinąć system sztucznej inteligencji, który będzie przynosił korzyści Europejczykom, przedsiębiorstwom i rządom.

  • European citizens
    Europejczycy

    lepsza opieka zdrowotna, bezpieczniejszy i czystszy transport i lepsze usługi publiczne

  • Person looking at a computer
    Przedsiębiorstwa

    innowacyjne produkty i usługi, na przykład w dziedzinie energii, bezpieczeństwa i opieki zdrowotnej; wyższa wydajność i bardziej efektywna produkcja

  • The world
    Rządy

    tańsze i bardziej zrównoważone usługi, takie jak transport, energia i gospodarowanie odpadami

UE i AI

  • W kwietniu 2021 r. Komisja złożyła wniosek dotyczący aktu w sprawie AI, a w grudniu 2023 r. Parlament Europejski i Rada osiągnęły porozumienie w tej sprawie. Akt ma być odpowiedzią na potencjalne zagrożenia dla zdrowia, bezpieczeństwa i praw podstawowych obywateli, a jednocześnie wspierać rozwój innowacyjnej i odpowiedzialnej AI w UE. 
  • Akt w sprawie AI oraz aktualizacja skoordynowanego planu w sprawie sztucznej inteligencji zagwarantują bezpieczeństwo i ochronę praw podstawowych obywateli i przedsiębiorstw, a jednocześnie wzmocnią inwestycje i innowacje we wszystkich krajach UE.
  • Komisja ogłosiła też pakiet na rzecz innowacji w dziedzinie AI, aby wspierać europejskie start-upy i MŚP w rozwoju wiarygodnej AI, zgodnej z wartościami i przepisami UE. 

Budowanie zaufania przez pierwsze w historii ramy prawne dotyczące sztucznej inteligencji

Unijny akt w sprawie AI stanowi pierwsze w historii, w skali globalnej, kompleksowe ramy prawne dotyczące sztucznej inteligencji. Akt ten ma sprawić, że systemy AI wykorzystywane w UE będą bezpieczne, przejrzyste, etyczne, bezstronne i kontrolowane przez człowieka. Systemy wykorzystujące sztuczną inteligencją kategoryzowane są według poziomu ryzyka: 

Niedopuszczalne ryzyko

Zakazane będzie wszystko, co zostanie uznane za wyraźne zagrożenie dla obywateli UE: od prowadzonej przez rządy oceny punktowej obywateli (tzw. social scoring) po zabawki z asystentem głosowym, które zachęcają dzieci do niebezpiecznych zachowań.

Wysokie ryzyko

  • infrastruktura krytyczna (np. transport) – zagrożenie dla życia i zdrowia obywateli
  • kształcenie lub szkolenie zawodowe – możliwość decydowania o dostępie do kształcenia i szkolenia zawodowego danej osoby (np. punktacja egzaminów)
  • elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotami)
  • zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacji)
  • podstawowe usługi prywatne i publiczne (np. punktacja kredytowa uniemożliwiająca obywatelom uzyskanie pożyczki)
  • egzekwowanie prawa – kolizja z prawami podstawowymi osób (np. weryfikacja autentyczności dokumentów potwierdzających)
  • zarządzanie migracją, sprawami azylowymi i kontrolą granic (np. automatyczne rozpatrywanie wniosków wizowych)
  • sprawowanie wymiaru sprawiedliwości i procesy demokratyczne (np. rozwiązania AI służące do wyszukiwania orzeczeń sądowych).

Systemy AI wysokiego ryzyka będą dokładnie oceniane przed wprowadzeniem do obrotu i przez cały cykl rynkowy.

Ograniczone ryzyko

Systemy sztucznej inteligencji, takie jak chatboty, podlegają minimalnym obowiązkom w zakresie przejrzystości, które mają umożliwić podejmowanie świadomych decyzji osobom wchodzącym w interakcję z tego rodzaju treściami. Użytkownik może wówczas podjąć decyzję o kontynuowaniu korzystania z danej aplikacji lub rezygnacji z korzystania z niej.

Minimalne ryzyko

Swobodne korzystanie z zastosowań takich jak gry wideo z wykorzystaniem sztucznej inteligencji lub filtry spamu. Zdecydowana większość systemów AI, które są obecnie wykorzystywane w UE, należy do tej kategorii, na którą nowe przepisy nie mają wpływu. Systemy te charakteryzują się minimalnym, a nawet zerowym zagrożeniem dla praw i bezpieczeństwa obywateli.

Przepisy obowiązujące dostawców systemów AI wysokiego ryzyka

  • alt=""
    Krok 1

    Opracowywany jest system AI należący do kategorii obarczonych wysokim ryzykiem.

  • alt=""
    Krok 2

    Musi on zostać poddany ocenie zgodności i spełniać wymogi w zakresie AI. W przypadku niektórych systemów niezbędny jest udział jednostki notyfikowanej.

  • alt=""
    Krok 3

    Rejestracja samodzielnych systemów AI w unijnej bazie danych.

  • alt=""
    Krok 4

    Konieczne jest podpisanie deklaracji zgodności dla danego systemu AI, który powinien być również opatrzony oznakowaniem CE. System może zostać wprowadzony do obrotu.

Jeżeli w cyklu życia systemu AI nastąpią istotne zmiany, należy wrócić do kroku 2.

Po wprowadzeniu systemu AI do obrotu organy publiczne odpowiadają za nadzór rynku, operatorzy zapewniają nadzór i monitorowanie przez człowieka, a dostawcy stosują system monitorowania po wprowadzeniu do obrotu. Dostawcy i operatorzy będą również zgłaszać poważne incydenty i nieprawidłowe działanie.

Doskonałość w dziedzinie sztucznej inteligencji

W 2018 r. Komisja i kraje UE rozpoczęły działania w tej dziedzinie – połączyły siły w ramach skoordynowanego planu w sprawie sztucznej inteligencji, który pomógł stworzyć podstawy dla krajowych strategii i rozwoju polityki.

Przedstawiona w 2021 r. aktualizacja skoordynowanego planu w sprawie AI daje impuls do działania i jest dostosowana do priorytetów Komisji w zakresie cyfryzacji i ekologii oraz do europejskiej reakcji na pandemię koronawirusa. 

Skoordynowany plan wspiera doskonałość w dziedzinie AI na wszystkich etapach (od laboratorium po rynek), a także przedstawia wizję przyspieszenia inwestycji w AI, zapewnienia terminowego wdrożenia strategii AI oraz harmonizacji polityki w zakresie AI w całej UE.

W związku z tym Komisja planuje utworzyć:

  • partnerstwo publiczno-prywatne w dziedzinie sztucznej inteligencji, danych i robotyki, które ma określić i wdrożyć wspólny europejski program badań naukowych, innowacji i wdrożeń oraz inwestować w działania w ramach tego programu
  • dodatkowe sieci centrów doskonałości w dziedzinie sztucznej inteligencji, które będą odpowiadać za wymianę wiedzy, rozwój współpracy z sektorem przemysłu oraz propagowanie różnorodności i włączenia społecznego
  • placówki testowo-doświadczalne, które będą zajmować się działalnością doświadczalną i testowaniem najnowocześniejszej technologii w warunkach rzeczywistych
  • ośrodki innowacji cyfrowych, które będą pełnić funkcję punktów kompleksowej obsługi zapewniających dostęp do wiedzy technicznej i możliwości doświadczalnych, aby przedsiębiorstwa mogły testować technologię przed dokonaniem inwestycji
  • platformę „Sztuczna inteligencja na żądanie”, która będzie centralnym europejskim repozytorium zasobów AI (takich jak wiedza fachowa, algorytmy, ramy oprogramowania, narzędzia rozwojowe) niezbędnych użytkownikom biznesowym i publicznym.

Projekty AI finansowane przez UE

UE sfinansowała do tej pory wiele projektów w dziedzinie AI, które oferują rozwiązania we wszystkich obszarach życia społecznego, takich jak rolnictwo, opieka zdrowotna, produkcja czy transport.

Trzy przykłady obszarów, w których zastosowanie technologii AI przyniosło szczególne korzyści, to opieka zdrowotna, środowisko i walka z dezinformacją.

  • Medical scan machine
    Neurorehabilitacja dla pacjentów leczonych na COVID-19 na OIOM-ach

    Projekt CDAC przyczynił się do opracowania i walidacji klinicznej innowacyjnych technologii, które zostały już wykorzystane w rehabilitacji ponad 3 tys. pacjentów z udarem mózgu w całej Europie.

    Więcej projektów finansowanych przez UE w dziedzinie zdrowia

  • A mobile phone taking pictures of a field
    Inteligentne czujniki pomagające wyżywić coraz liczniejszą ludność świata

    W ramach projektu ANTARES opracowuje się technologie inteligentnych czujników i dużych zbiorów danych, które mogą pomóc rolnikom w produkcji większej ilości żywności w sposób zrównoważony dla społeczeństwa, dochodów gospodarstw rolnych i środowiska.

    Więcej projektów finansowanych przez UE w tej dziedzinie

  • A woman wearing a mask
    Narzędzia internetowe do weryfikacji informacji i obalania fałszywych twierdzeń

    WeVerify zapewnia narzędzia do weryfikacji, np. w formie wtyczki, które mogą pomóc weryfikatorom informacji, dziennikarzom, działaczom na rzecz praw człowieka i zwykłym ludziom w sprawdzaniu prawdziwości informacji podawanych w nagraniach wideo i obrazach udostępnianych w internecie.

    Więcej projektów finansowanych przez UE w dziedzinie walki z dezinformacją

Sztuczna inteligencja w UE w liczbach

  • landing2.png
    1 mld euro

    Komisja planuje inwestować w sztuczną inteligencją 1 mld euro rocznie w ramach programów „Cyfrowa Europa” i „Horyzont Europa”.

  • landing3.png
    20 mld euro

    Celem jest przyciągnięcie w tym dziesięcioleciu w UE łącznych inwestycji w sztuczną inteligencję o wartości ponad 20 mld euro rocznie. Instrument na rzecz Odbudowy i Zwiększania Odporności przyczyni się do przyspieszenia inwestycji i przekroczenia wyznaczonego celu.

  • landing1.png
    > 25%

    wszystkich usługowych robotów przemysłowych i osobistych jest produkowanych w Europie.

Dokumenty

 

  • 21 KWIETNIA 2021
Communication on Fostering a European approach to Artificial Intelligence

 

  • 21 KWIETNIA 2021
Proposal for a Regulation laying down harmonised rules on artificial intelligence

 

  • 21 KWIETNIA 2021
Coordinated Plan on Artificial Intelligence - 2021 Review

 

  • 21 KWIETNIA 2021
Proposal for a Regulation on machinery products

 

  • 19 LUTEGO 2020
Biała księga w sprawie sztucznej inteligencji Europejskie podejście do doskonałości i zaufania

 

  • 19 LUTEGO 2020
Factsheet: Excellence and Trust in Artificial Intelligence

 

  • 19 LUTEGO 2020
Sprawozdanie na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność