AI ACT – zakazane praktyki w kontekście branży Life Science

3908

AI otwiera przed branżą Life Science ogromne możliwości, ale granice jej wykorzystania wyznaczają nie tylko technologia, lecz także prawo i etyka. Sprawdź, które praktyki sztucznej inteligencji są całkowicie zakazane przez AI Act – i jak mogą nieświadomie pojawić się w medycynie, badaniach klinicznych czy telemedycynie. Artykuł powstał w ramach projektu Miesiąc Partnera Klastra, którego partnerem w marcu jest kancelaria IPSO LEGAL.


Wprowadzenie

Akt w sprawie sztucznej inteligencji (AI Act) wprowadza w Unii Europejskiej surowe ograniczenia dotyczące stosowania systemów AI o nieakceptowalnym poziomie ryzyka. Innymi słowy, pewne praktyki uznano za tak szkodliwe, że są całkowicie zakazane niezależnie od okoliczności. Dotychczas często przywoływano przykłady z obszarów takich jak marketing czy bezpieczeństwo publiczne. W niniejszym artykule skupiamy się na branży Life Science – obejmującej m.in. biotechnologię, farmację, diagnostykę medyczną, urządzenia medyczne, telemedycynę, badania kliniczne oraz AI w analizie danych pacjentów i genomice – aby zobrazować, jak te zakazane praktyki mogą wyglądać w kontekście ochrony zdrowia i nauk o życiu.

AI znajduje coraz szersze zastosowanie w medycynie: od analiz genomowych, przez wspomaganie diagnoz, aż po rozwój nowych leków. Jednak nawet w tak szczytnych celach musimy być świadomi granic wyznaczonych przez prawo i etykę. Poniżej przedstawiamy listę głównych zakazanych praktyk AI (art. 5 AI Act) wraz z wyjaśnieniami i przykładami ze świata Life Science.

Zakazane praktyki AI

Manipulacja i wpływ na decyzje użytkowników

AI Act zakazuje stosowania systemów AI wykorzystujących techniki podprogowe lub celowo manipulacyjne w celu wpływania na ludzkie zachowanie w sposób pozbawiający osoby świadomej kontroli, szczególnie jeśli skutkuje to poważną szkodą​. Dotyczy to wszelkich ukrytych metod oddziaływania na użytkownika – np. bodźców dźwiękowych czy wizualnych poniżej progu percepcji – które mogą skłonić kogoś do decyzji, jakiej normalnie by nie podjął.

W kontekście medycyny i zdrowia taka manipulacja może mieć dramatyczne konsekwencje. Wyobraźmy sobie aplikację diagnostyczną, która analizuje objawy pacjenta. Gdy AI wykryje, że użytkownik waha się co do kosztownego badania, zaczyna emitować uspokajające tony lub wyświetlać delikatne sugestie graficzne, aby skłonić pacjenta do zgody na ten test. Jeśli dzieje się to poniżej progu świadomej uwagi pacjenta, mamy do czynienia z niedopuszczalną manipulacją. Inny przykład: asystent zdrowotny w telemedycynie mógłby celowo przekłamywać prezentację danych medycznych, np. wyolbrzymiać ryzyko danej choroby alarmującymi komunikatami, by nakłonić chorego do wykupienia drogiej terapii. Tego typu praktyki – choć realizowane pod pozorem troski o zdrowie – naruszałyby autonomię pacjenta i byłyby sprzeczne z AI Act.

W sektorze wyrobów medycznych także trzeba uważać. Zaawansowany monitor zdrowia (np. smartwatch z AI) nie może podprogowo wymuszać określonych zachowań użytkownika. Gdyby np. taki zegarek emitował niesłyszalne komunikaty mające skłonić noszącego do częstszego używania płatnych funkcji „pro” (np. dodatkowych raportów zdrowotnych), byłaby to niedozwolona manipulacja. Prawo wymaga, aby decyzje dotyczące zdrowia były podejmowane świadomie – jakiekolwiek potajemne „sztuczki” AI ograniczające tę świadomość są zakazane.

Wykorzystanie słabości użytkowników

Druga kategoria zakazanych praktyk dotyczy systemów AI, które wykorzystują słabe punkty osób fizycznych lub określonych grup (np. ze względu na wiek, niepełnosprawność czy sytuację społeczno-ekonomiczną), wpływając na ich zachowanie w sposób mogący wyrządzić im szkodę​. Innymi słowy, AI nie może żerować na podatności szczególnie wrażliwych grup ludzi.

W branży Life Science możemy wyobrazić sobie kilka realnych scenariuszy takiego zagrożenia. Na przykład asystent medyczny dla seniorów – powiedzmy robot opiekuńczy lub aplikacja do przypominania o lekach – jest tworzony z myślą o osobach starszych. Jeśli twórcy takiego systemu wprowadzą funkcję namawiającą użytkowników do zakupu suplementów diety o wątpliwej skuteczności (bo np. dana firma sponsoruje ten produkt), mielibyśmy do czynienia z wykorzystaniem słabości wynikającej z wieku. Starsza osoba może nie mieć pełnej świadomości manipulacji i zaufać AI, co naraża ją na koszty finansowe, a potencjalnie i zdrowotne. AI Act zdecydowanie zabrania takich praktyk.

Podobnie może zdarzyć się z innymi grupami pacjentów. Osoby ciężko chore lub z ograniczonym dostępem do informacji medycznej są szczególnie podatne na obietnice „cudownych terapii”. Wyobraźmy sobie system AI oferujący spersonalizowane porady zdrowotne dla chorych onkologicznie o niskich dochodach. Gdy AI wykryje desperację pacjenta (np. w jego wypowiedziach tekstowych), zaczyna nakłaniać go do udziału w ryzykownym badaniu klinicznym nowego leku, przedstawiając to jako jedyną nadzieję. Jeśli system celowo wykorzystuje trudną sytuację chorego – brak innej opcji leczenia i nadzieję na cud – by skłonić go do zgody, to mamy przykład nieetycznego i zakazanego wykorzystania słabości. Pacjent może podjąć decyzję pod wpływem nacisku AI, co narusza zasadę świadomej zgody.

Dzieci i osoby niepełnosprawne to kolejna chroniona grupa. System AI w diagnostyce medycznej dla dzieci musi być szczególnie ostrożny, by nie manipulować młodym użytkownikiem. Gdyby aplikacja zdrowotna dla nastolatków stosowała techniki rodem z gier (np. nagrody, odznaki) w celu skłonienia chorego dziecka do pewnych działań zdrowotnych, nie ma w tym nic złego – o ile wszystko jest jawne. Jednak jeśli mechanizmy te staną się przebiegłe i wykorzystają niedojrzałość dziecka, np. nakłaniając je do przekazania aplikacji większej kontroli nad swoim ciałem lub danymi (bez wiedzy rodzica), wkroczylibyśmy w obszar praktyk zabronionych.

Systemy scoringu społecznego

Jedną z głośnych regulacji AI Act jest zakaz tzw. systemów social scoring, czyli oceniania lub klasyfikacji ludzi na podstawie ich zachowań lub cech w sposób prowadzący do nieuzasadnionej dyskryminacji​. W domyśle chodziło o zapobieżenie praktykom znanym z literatury science-fiction (np. „system punktów społecznych” mogący ograniczać prawa obywateli). W sektorze Life Science również musimy uważać, by sztuczna inteligencja nie przydzielała ludziom „metryk” skutkujących niesprawiedliwym traktowaniem w obszarze zdrowia.

Realnym przykładem może być ubezpieczenie zdrowotne. Wyobraźmy sobie, że firma ubezpieczeniowa korzysta z AI do analizy ogromnych baz danych: informacji medycznych pacjenta, jego stylu życia (np. dane z aplikacji fitness), historii zakupów (dieta) czy nawet aktywności w mediach społecznościowych. Na tej podstawie algorytm nadaje każdemu klientowi „scoring zdrowotny” – punktową ocenę ryzyka chorób i przewidywanych kosztów leczenia. Jeśli taki scoring byłby używany do automatycznego odmawiania niektórym osobom polis lub naliczania zaporowych składek, mielibyśmy do czynienia z bardzo niebezpieczną praktyką. Osoby o „niskim wyniku” (np. z nadwagą, gorszymi genami lub gorszym dostępem do zdrowej żywności) mogłyby być systemowo dyskryminowane przez maszynę. AI Act zabrania social scoringu, zwłaszcza prowadzącego do krzywdzących skutków społecznych – a odmowa opieki zdrowotnej czy ubezpieczenia z pewnością jest krzywdzącym skutkiem.

Oczywiście, nie oznacza to, że AI nie może wspierać oceny ryzyka medycznego. Wręcz przeciwnie – algorytmy oceniające ryzyko chorób czy powikłań są cennym narzędziem lekarzy. Różnica polega jednak na tym, jak te oceny są wykorzystywane. Jeśli wynik modelu AI służy wewnętrznie lekarzowi do podjęcia lepszej decyzji klinicznej (np. intensywniejszy nadzór nad pacjentem wysokiego ryzyka) – to działanie w interesie chorego. Jeżeli jednak ta sama informacja miałaby posłużyć do odmówienia pacjentowi pewnych usług lub praw, staje się to moralnie i prawnie nieakceptowalne. AI Act wyznacza wyraźną granicę: żadnego zautomatyzowanego szufladkowania ludzi, które prowadzi do ich dyskryminacji poza pierwotnym kontekstem danych.

W kontekście Life Science można też wspomnieć o badaniach klinicznych: choć tu nie mówimy wprost o „social scoring”, to podobny problem pojawiłby się, gdyby AI faworyzowała lub dyskwalifikowała kandydatów do badania na podstawie cech niezwiązanych ściśle z celem badania. Na przykład algorytm rekrutacyjny, który odrzuca pacjentów z niższym wykształceniem czy biedniejszych dzielnic (uznając, że mogą gorzej przestrzegać zaleceń), tworzyłby nieetyczny profil społeczny. Takie praktyki również byłyby sprzeczne z duchemAI ACT – każdy pacjent powinien mieć równy dostęp do leczenia i badań, a decyzje muszą opierać się na kryteriach medycznych, nie arbitralnej punktacji.

Przewidywanie przestępczości (profilowanie kryminalne)

AI Act zakazuje wykorzystywania AI do przewidywania, czy ktoś popełni przestępstwo, na podstawie profilowania i cech osobowości, bez oparcia w obiektywnych dowodach​. To obostrzenie ma głównie na celu zapobiec nadużyciom w wymiarze sprawiedliwości (tzw. predictive policing). Czy ma ono odniesienie do sektora Life Science? Pośrednio tak – wszak również w ochronie zdrowia czy ubezpieczeniach można wyobrazić sobie pokusę „profilowania predykcyjnego” pacjentów pod kątem niepożądanych zachowań.

Choć w sektorze Life Science „predykcja przestępstw” nie jest typowym zastosowaniem, warto zauważyć, że pewne medyczne AI mogłyby nieświadomie wchodzić na to pole. Na przykład, system oceniający, czy pacjent będzie przestrzegał zaleceń lekarskich, mógłby łatwo przerodzić się w etykietowanie „nieposłusznych” pacjentów. Jeżeli algorytm uzna, że ktoś z dużym prawdopodobieństwem nie będzie stosować się do zaleceń (co samo w sobie nie jest przestępstwem, ale niepożądanym zachowaniem), to czy lekarz ma prawo odmówić mu terapii? Albo czy ubezpieczyciel może z góry nałożyć na niego kary (np. wyższe współpłacenie)? Byłoby to wysoce problematyczne. Choć formalnie nie podpada idealnie pod „ryzyko przestępstwa”, mechanizm myślenia jest analogiczny: profilowanie zachowań przyszłych i wyciąganie surowych konsekwencji z probabilistycznej wróżby AI. Prawo i etyka wymagają tu daleko posuniętej ostrożności, by nie przekroczyć granicy między prewencją a dyskryminacją.

W skrócie: AI w medycynie nie może być „wyrocznią” oceniającą moralność czy legalność przyszłych działań pacjentów. Decyzje muszą opierać się na faktach tu i teraz (np. aktualne wyniki badań, stwierdzone nadużycia), a nie na domniemaniach co ktoś mógłby zrobić. 

Masowe rozpoznawanie twarzy (nielegalne bazy danych)

Piątym zakazem jest tworzenie nielegalnych baz danych do rozpoznawania twarzy.  AI Act zabrania takiego działania, jeśli odbywa się bez zgody osób, których dane dotyczą. Najczęściej dyskutowanym przykładem jest tutaj pozyskiwanie zdjęć twarzy z mediów społecznościowych lub kamer ulicznych, by trenować algorytmy rozpoznawania twarzy (jak robiły niektóre kontrowersyjne firmy).

Przykład z sektora Life Science? Bardzo proszę. 

Wyobraźmy sobie startup tworzący AI do rozpoznawania chorób skóry. Chcąc szybko zdobyć obszerny dataset, twórcy pobierają z Internetu tysiące zdjęć znamion, zmian skórnych, a przy okazji całe twarze pacjentów, często z forów medycznych czy portali społecznościowych, gdzie ludzie dzielą się zdjęciami np. znamion do oceny. Jeśli odbywa się to bez wyraźnej zgody tych osób i bez anonimizacji, jest to praktyka analogiczna do „untargeted scraping”. Nawet szczytny cel (ulepszenie diagnostyki czerniaka) nie usprawiedliwia łamania prywatności. AI Act stoi na stanowisku, że budowanie baz do rozpoznawania twarzy (lub innych cech biometrycznych) poprzez masowe zbieranie dostępnych obrazów jest niedopuszczalne​. Narusza to bowiem fundamentalne prawa, w tym prawo do prywatności i ochrony danych osobowych.

Inny przykład: firma pracuje nad systemem biometrycznej identyfikacji pacjentów w szpitalu. Zamiast mozolnie zbierać zgody od tysięcy osób na wykorzystanie ich zdjęć do trenowania algorytmu rozpoznawania twarzy, ktoś wpada na pomysł, by wykorzystać nagrania z szpitalnych kamer monitoringu. Przecież w ciągu miesiąca przez korytarze przewijają się setki pacjentów – wystarczy wydobyć klatki z ich twarzami i już mamy „darmowy” zbiór danych do treningu AI. Takie działanie byłoby nielegalne. Materiały z CCTV zazwyczaj mają konkretny cel (bezpieczeństwo), a pacjenci nie wyrażają zgody, by ich wizerunki służyły do budowania nowych systemów. Nieukierunkowane pozyskiwanie wizerunków pacjentów w ten sposób łamie zarówno AI Act, jak i zapewne przepisy o ochronie danych (RODO).

Analiza emocji w miejscu pracy i edukacji

Szósta zakazana praktyka dotyczy analizy emocji osób za pomocą AI w określonych kontekstach. Konkretnie, AI Act zabrania wprowadzania na rynek i używania systemów AI przeznaczonych do wyciągania wniosków na temat emocji danej osoby w miejscu pracy lub instytucjach edukacyjnych. Wyjątkiem mogą być sytuacje, gdy takie systemy są wykorzystywane ze względów medycznych lub bezpieczeństwa – ale poza tym analiza emocjonalna pracowników czy uczniów jest niedozwolona.

W sektorze Life Science emocje pacjentów też są istotne, ale tutaj wyjątek medyczny ma zastosowanie. Oznacza to, że pewne systemy AI analizujące stan emocjonalny pacjenta mogą być dozwolone, jeśli ich celem jest poprawa zdrowia lub bezpieczeństwo. Przykładem pozytywnym może być AI monitorujące mimikę twarzy chorego, aby wykryć oznaki bólu lub depresji – np. u pacjentów niemówiących lub w śpiączce. Takie zastosowanie służy medycynie, więc nie jest zabronione. Jednak należy uważać, by nie przekroczyć cienkiej granicy między pomocą a naruszeniem prywatności.

Wyobraźmy sobie szpital, który wprowadza system kamer z AI do monitorowania samopoczucia pacjentów na oddziale psychiatrycznym. AI analizuje twarze i głosy, by ocenić nastrój chorych i w razie wykrycia skrajnego smutku lub pobudzenia – alarmuje personel. Intencja jest dobra (zapobieganie samobójstwom, szybka reakcja na kryzysy), ale pacjenci mogą nie czuć się komfortowo, będąc cały czas „na oku” sztucznej inteligencji oceniającej ich emocje. Mimo że prawo nie zabrania takiego zastosowania (bo to kontekst medyczny), szpital musi zachować najwyższą ostrożność. Po pierwsze, pacjenci powinni być świadomi działania systemu i wyrazić zgodę. Po drugie, algorytm musi być bardzo dobrze przetestowany – fałszywy alarm lub błędna ocena emocji mogłyby wyrządzić krzywdę (np. niepotrzebnie izolując pacjenta).

Warto też zauważyć, że pracownicy sektora medycznego są chronieni przez ten przepis tak jak inni. Jeśli dyrekcja szpitala chciałaby np. monitorować emocje lekarzy i pielęgniarek (czy nie są zmęczeni, czy okazują empatię pacjentom), to takie działanie podpada pod zakaz w miejscu pracy. Chyba że uzasadni się to „względami bezpieczeństwa” – co w praktyce jest trudne, bo raczej trudno argumentować, że odczytywanie emocji personelu w czasie rzeczywistym jest kwestią bezpieczeństwa.

Podsumowując, w Life Science analiza emocji przez AI jest obszarem bardzo delikatnym. Wolno ją stosować głównie wtedy, gdy bezpośrednio służy zdrowiu pacjenta. W każdym innym wypadku – np. kontrola pracowników medycznych czy badanie emocji studentów medycyny na egzaminach – należy tego unikać, bo wchodzi to w konflikt z zakazem AI Act i podstawowym prawem do prywatności przeżyć wewnętrznych.

Kategoryzacja biometryczna

Kolejna zakazana praktyka budziła duże emocje w debacie publicznej: kategoryzacja biometryczna. Kategoryzacja biometryczna to praktyka, gdzie system AI wykorzystuje dane biometryczne (np. obraz twarzy, odcisk palca, próbkę głosu czy DNA) do przypisania osoby do pewnej kategorii na podstawie cech osobistych lub preferencji. AI Act zabrania wprowadzania na rynek i używania systemów, które w ten sposób klasyfikują ludzi według m.in. rasy, poglądów politycznych, religii, światopoglądu, orientacji seksualnej czy innych wrażliwych cech. 

Jak może to wyglądać w praktyce Life Science? Weźmy telemedycynę i zdalne konsultacje. Kamera podczas wideoporady rejestruje twarz pacjenta. Jej głównym celem jest rozmowa, ale te same dane wizualne mogłyby posłużyć do innych analiz. Jeśli aplikacja telemedyczna zaczęłaby np. automatycznie kategoryzować pacjenta: „mężczyzna, ok. 40 lat, pochodzenie bliskowschodnie, wygląda na zdenerwowanego” i przekazywać lekarzowi takie informacje jako kontekst – to już pojawia się problem. Lekarz mógłby, nawet podświadomie, potraktować pacjenta inaczej (np. bardziej podejrzliwie, gdy algorytm sugeruje zdenerwowanie i określone pochodzenie, co może budzić uprzedzenia). Takie funkcje nie powinny się znaleźć w systemie zgodnym z AI Act.

W obszarze farmacji i badań klinicznych również należy uważać. AI wspiera dziś projektowanie nowych leków i analizy danych z badań. Ważne jednak, by nie klasyfikować uczestników badań według cech nieistotnych naukowo, a potencjalnie dyskryminujących. Przykładowo, AI analizując dane z badania klinicznego nie powinna oznaczać w raportach, że „uczestnicy o orientacji homoseksualnej reagowali inaczej na lek” – chyba że orientacja jest świadomie i etycznie badanym czynnikiem (co byłoby bardzo nietypowe i musiałoby mieć mocne uzasadnienie medyczne). Bez klarownego powodu takie kategoryzowanie danych byłoby nie na miejscu. Podobnie genomika populacyjna powinna służyć nauce i medycynie, a nie tworzeniu podziałów. AI w genomice musi być projektowana tak, by np. nie wyciągała nieuprawnionych wniosków o osobowości czy zdolnościach tylko na bazie DNA – bo to przepis na nadużycia.

Zdalna identyfikacja biometryczna w czasie rzeczywistym

Ostatnia kluczowa kategoria zakazów to stosowanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, z wyjątkiem bardzo szczególnych sytuacji. Mówiąc prościej: policji nie wolno bez ograniczeń używać np. kamer z rozpoznawaniem twarzy na ulicach. Ten zakaz ma chronić nas przed masową inwigilacją. Jak to się ma do Life Science? Szpitale i placówki medyczne co prawda nie są „organami ścigania”, ale wykorzystanie podobnych technologii w takich miejscach również budzi wątpliwości etyczne i prawne.

Zdalna identyfikacja biometryczna to np. system kamer, które automatycznie rozpoznają twarze ludzi i ustalają ich tożsamość. W szpitalu mógłby kusić pomysł, aby wdrożyć taki system do identyfikacji pacjentów i personelu dla poprawy bezpieczeństwa. Pacjent wchodzi na teren szpitala – kamera go skanuje, AI dopasowuje do bazy zdjęć i potwierdza np. „To Jan Kowalski, pacjent oddziału kardiologii”. Z jednej strony to wygodne, bo utrudnia wejście osobom nieuprawnionym, pozwala szybko przywołać dokumentację medyczną, czy nawet zlokalizować zaginionego pacjenta z demencją. Z drugiej strony, taki system ociera się o masowy nadzór. Jeśli działa stale, wszyscy odwiedzający i pacjenci byliby skanowani i rozpoznawani bez przerwy. To rodzi pytania o prywatność i zgodność z prawem.

AI Act bezpośrednio zakazuje tego w przestrzeni publicznej dla policji, ale szpital też może być miejscem publicznym w sensie otwartości przestrzeni. Co prawda, szpital mógłby argumentować, że identyfikacja pacjentów służy bezpieczeństwu (np. żeby nie pomylić tożsamości przy zabiegu) – i to jest istotny cel medyczny. 

Jeśli placówka medyczna chciałaby mimo wszystko zastosować elementy takiej technologii, musiałaby spełnić szereg warunków: wyraźna zgoda zainteresowanych, najwyższe zabezpieczenia danych, ograniczenie zakresu użycia do absolutnie koniecznego minimum. Przykładowo, system mógłby działać tylko w określonych strefach (np. izba przyjęć do weryfikacji tożsamości nieprzytomnych pacjentów) i nie przechowywać nagrań dłużej niż to konieczne. Niemniej, ze względu na AI Act, każdy producent AI oferujący takie rozwiązania będzie miał związane ręce – nie może po prostu sprzedawać szpitalom dowolnych systemów biometrycznej identyfikacji, które mogłyby zostać wykorzystane niezgodnie z prawem. Co więcej, tworzenie bazy twarzy pacjentów poprzez np. sięgnięcie po zdjęcia z mediów społecznościowych czy innych źródeł bez zgody byłoby naruszeniem omówionego wcześniej zakazu masowego zbierania danych biometrycznych.

W praktyce więc zdalna identyfikacja biometryczna w placówkach medycznych powinna być stosowana bardzo ostrożnie, jeśli w ogóle. W większości przypadków tradycyjne metody (opaski identyfikacyjne, kody QR na dokumentacji, weryfikacja dokumentu tożsamości) w zupełności wystarczają do potwierdzenia, kim jest pacjent. Wprowadzanie wszechobecnego monitoringu twarzy w imię nieznacznego usprawnienia procesu byłoby ryzykownym precedensem. 

AI Act stawia więc granice, których nie warto przekraczać także w służbie zdrowia. Nawet jeśli pewne zastosowania nie są dosłownie objęte zakazem (bo dotyczą np. podmiotów prywatnych, nie policji), to idea stojąca za przepisami jest jasna: biometria i identyfikacja to obszar wymagający najwyższej rozwagi i poszanowania praw człowieka. W Life Science, gdzie w grę wchodzi zdrowie i życie, ta zasada ma szczególne znaczenie – pacjent musi czuć się bezpiecznie nie tylko fizycznie, ale i pod względem ochrony swojej tożsamości i danych.

Podsumowanie

Branża Life Science przeżywa rewolucję dzięki sztucznej inteligencji, ale jak każda rewolucja technologiczna, niesie ona nie tylko obietnice, lecz także ryzyka. Europejski AI Act identyfikuje konkretne zakazane praktyki AI, które są niedopuszczalne z punktu widzenia bezpieczeństwa, etyki i praw człowieka. W sektorze ochrony zdrowia i nauk biologicznych te zakazy nabierają szczególnego wymiaru. 

Masz wątpliwości, czy system AI nad którym pracujesz spełnia wymagania AI Act? Zastanawiasz się, jak skutecznie wdrożyć procedury zgodne z nowymi przepisami? Kancelaria IPSO LEGAL specjalizuje się w doradztwie prawnym dla branży lifescience. Wsparcie obejmuje m.in.:

  • doradztwo w zakresie odpowiedzialności prawnej za AI
  • opracowanie polityki compliance i dokumentacji związanej z systemami AI
  • weryfikację regulaminów i polityk wewnętrznych
  • wdrożenie systemów zarządzania jakością,
  • doradztwo w zakresie działań naprawczych i post-market monitoring.

Jak możesz się skontaktować z IPSO LEGAL? Wyślij wiadomość na: office@ipsolegal.pl lub odwiedź stronę: www.ipsolegal.pl.

Materiały do powyższego artykułu zostały dostarczone przez firmę IPSO LEGAL.

Poprzedni artykułZaangażuj się w działania europejskiej inicjatywy COHES.io – wypełnij deklarację!
Następny artykułAI ACT – najważniejsze kroki do zgodności