Sztuczna inteligencja rzuca znacznie większy cień niż jakakolwiek inna potencjalnie przełomowa innowacja na początku XXI wieku. Aby upewnić się, że kolejny wielki skok ludzkości będzie bezpieczny i nie odbędzie się kosztem zasad demokracji i praw obywatelskich, politycy na całym świecie czynią pierwsze postępy w tworzeniu przepisów, które służą jako zabezpieczenie przed przyszłymi szkodami.

Oczywiście stworzenie ram prawnych dla rozwoju i wdrażania narzędzi sztucznej inteligencji jest niezwykle złożone. Z tego względu że wymaga przewidzenia zarówno potencjalnych zastosowań, jak i możliwych nadużyć. Chociaż nie możemy być całkowicie pewni, w jakim stopniu obecny wzrost liczby narzędzi sztucznej inteligencji jest tylko pozornym szumem. To jednak wszystkie największe firmy na świecie gonią za przysłowiową kurą znoszącą złote jajka.

Według Goldman Sachs, kwota zainwestowana na całym świecie w generatywną sztuczną inteligencję do 2025 roku wyniesie prawie 200 miliardów dolarów. I to pomimo braku rzeczywistych, wymiernych efektów w zakresie produktywności. Wczesna adaptacja jest koniecznością, tak samo jak wczesna regulacja.

Przepisy dotyczące sztucznej inteligencji: Kluczowa polityka w trakcie tworzenia

W sierpniu 2023 r. w Chinach wszedł w życie akt prawny o nazwie Środki tymczasowe dotyczące zarządzania usługami sztucznej inteligencji generatywnej. Określa on ograniczenia dla firm, które świadczą takie usługi konsumentom. Ograniczenia te dotyczą zarówno wykorzystywanych danych szkoleniowych, jak i generowanych wyników.

Ponadto w ubiegłym roku Biuro Polityki Naukowej i Technologicznej Białego Domu wydało Projekt ustawy o prawach sztucznej inteligencji. Uznano w nim potrzebę zapobiegania rozwojowi technologicznemu, który obfitowałby w uprzedzenia rasowe, płciowe i inne uprzedzenia społeczne. A także systematycznie naruszałby prywatność i prawa autorskie lub uniemożliwiał obywatelom dostęp do krytycznych zasobów.

Obawy związane z danymi biometrycznymi

Do końca 2023 r. Rada Europejska i Parlament Europejski osiągnęły porozumienie w sprawie europejskiego aktu prawnego dotyczącego sztucznej inteligencji. Podobnie jak w przypadku innych krajów, ustawa ta opowiada się za ustanowieniem zabezpieczeń. Ma także na celu ochronę prawa konsumentów i ogółu społeczeństwa do składania skarg i otrzymywania istotnych wyjaśnień od dostawców usług bez konieczności podejmowania faktycznych działań prawnych.

Unijna ustawa o sztucznej inteligencji idzie jednak o krok dalej i zakazuje również następujących konkretnych przypadków użycia:

Inwestowanie w sztuczną inteligencję w dziedzinie bezpieczeństwa

Według ostatnich badań, wielkość rynku bezpieczeństwa AI w 2024 roku szacuje się na 25 miliardów dolarów i oczekuje się, że osiągnie 60 miliardów dolarów do 2029 roku. Rosnąc w tym okresie w złożonym tempie 19% rocznie. Inwestycje te będą jednak musiały uwzględniać nowe ramy prawne powstające na całym świecie.

Producenci powinni być ostrożni, jeśli chodzi o oferowanie dodatkowych funkcji dozwolonych przez tę samą technologię, której używają do poprawy wydajności swoich systemów bezpieczeństwa. Przynajmniej do czasu, gdy ramy prawne, które obecnie powstają, zapewnią jaśniejszy obraz tego, co jest, a co nie jest zgodne z prawem w zakresie wykorzystania sztucznej inteligencji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *