Categorías: Todo

por dr inż. Michał Malinowski hace 1 mes

31

Typy ataków na Systemy Uczenia Maszynowego

Systemy uczenia maszynowego są narażone na różnorodne ataki, które mogą znacznie obniżyć ich bezpieczeństwo i funkcjonalność. Do głównych zagrożeń należą ataki typu trojan, które wprowadzają złośliwy kod do modeli; ataki typu backdoor, które umożliwiają nieautoryzowany dostęp; oraz kradzież modeli, gdzie atakujący kopiuje model bez wiedzy właściciela.

Typy ataków na Systemy Uczenia Maszynowego

Typy ataków na Systemy Uczenia Maszynowego

Dane Treningowe

Przechylenie modelu (Model Skewing)
Atak inferencji członkostwa (Membership Inference Attacks)
Zatrucie danych treningowych (Training Data Poisoning)
Wycieki danych (Data Exfiltration)

Wyniki

Atak na integralność wyników (Output Integrity Attack)
Nadmierna zależność (Overreliance)
Niebezpieczne przetwarzanie wyników (Insecure Output Handling)
Inwersja modelu (Model Inversion Attack)
Ujawnienie poufnych informacji (Sensitive Information Disclosure)

Dane wejściowe

Ataki enkodera (Encoder Attacks)
Wstrzyknięcie polecenia (Prompt Injection)
Ataki omijające (Evasion Attacks)
Ataki adwersarialne (Adversarial Attacks)

Algorytm

Nadmierna autonomia (Excessive Agency)
Niebezpieczna konstrukcja API (Insecure Plugin Design)

Model

Jailbreak (Jailbreaking Attack)
Zatrucie modelu (Model Poisoning)
Ataki przeprogramowujące (Reprogramming Attacks)
Ataki na transfer uczenia (Transfer Learning Attacks)
Ataki bocznokanałowe (Side-Channel Attacks)
Atak typu odmowa usługi (DoS) (Model Denial of Service)
Kradzież modelu (Model Theft)
Ataki typu trojan (Trojan Attacks)
Ataki typu backdoor (Backdoor Attacks)
Luki w łańcuchu dostaw (Supply Chain Vulnerabilities)