Typy ataków na Systemy Uczenia Maszynowego

Model

Model

Luki w łańcuchu dostaw
(Supply Chain Vulnerabilities)

Ataki typu backdoor
(Backdoor Attacks)

Ataki typu trojan
(Trojan Attacks)

Kradzież modelu
(Model Theft)

Atak typu odmowa usługi (DoS)
(Model Denial of Service)

Ataki bocznokanałowe
(Side-Channel Attacks)

Ataki na transfer uczenia
(Transfer Learning Attacks)

Ataki przeprogramowujące
(Reprogramming Attacks)

Zatrucie modelu
(Model Poisoning)

Jailbreak
(Jailbreaking Attack)

Algorytm

Algorytm

Niebezpieczna konstrukcja API
(Insecure Plugin Design)

Nadmierna autonomia
(Excessive Agency)

Dane wejściowe

Dane wejściowe

Ataki adwersarialne
(Adversarial Attacks)

Ataki omijające
(Evasion Attacks)

Wstrzyknięcie polecenia
(Prompt Injection)

Ataki enkodera
(Encoder Attacks)

Wyniki

Wyniki

Ujawnienie poufnych informacji
(Sensitive Information Disclosure)

Inwersja modelu
(Model Inversion Attack)

Niebezpieczne przetwarzanie wyników
(Insecure Output Handling)

Nadmierna zależność
(Overreliance)

Atak na integralność wyników
(Output Integrity Attack)

Dane Treningowe

Dane Treningowe

Wycieki danych
(Data Exfiltration)

Zatrucie danych treningowych
(Training Data Poisoning)

Atak inferencji członkostwa
(Membership Inference Attacks)

Przechylenie modelu
(Model Skewing)