pokaz koszyk
rozwiń menu
tylko:  
E-book:

Hakowanie sztucznej inteligencji

Dane szczegółowe:
Wydawca: Naukowe PWN
Format: mobi, epub
Ilość stron: 220 s.
Zabezpieczenie: plik z zabezpieczeniem watermark
EAN: 9788301215361
Data: 2025-02-06
Cena wydawcy: 59.00 złpozycja niedostępna

Opis e-booka:

Wraz z rozwojem cyfryzacji, w tym m.in. intensywnego rozwoju Internetu Rzeczy, rośnie znaczenie automatyzacji procesów biznesowych oraz użycia inteligentnych systemów wspomagania decyzji z wykorzystaniem metod sztucznej inteligencji i technik zaawansowanej analizy danych. Ten bezsprzecznie ważny trend rozwojowy implikuje istotne zagrożenia i ryzyka.

W książce autorzy opisują zjawiska celowej ingerencji na proces budowania i stosowania modeli sztucznej inteligencji opartych o maszynowe uczenie się, tak aby zakłócić ich działanie, czy też doprowadzić do zaprzestania ich funkcjonowania. Te realne zagrożenia mogą mieć olbrzymi wpływ na zdrowie ludzkie, funkcjonowanie przedsiębiorstw i gospodarki, a nawet bezpieczeństwo narodowe.

Publikacja jest interesująca zarówno dla studentów i pracowników naukowcy szczególnie, że dotyczy nowego obszaru badawczego Adversarial Machine Learning. Będzie to też praktyczne źródło wiedzy dla wszystkich, którzy zajmują się wdrażaniem metod sztucznej inteligencji, zarządzaniem procesami wykorzystującymi metody analizy danych, czy też odpowiedzialnych za cyberbezpieczeństwo.

Fascynacja ludzka nowymi rozwiązaniami z dziedziny sztucznej inteligencji wychodzi powoli z okresu euforycznego zachłyśnięcia się nowinkami technicznymi. Ludzie coraz częściej zastanawiają się, jakie mogą być minusy stosowania nowych rozwiązań opartych na SI. Pojawia się ryzyko związane ze świadomymi atakami na tego rodzaju systemy (…). Celem, jaki postawili przed sobą autorzy publikacji, jest holistyczne ujęcie problematyki hakowania systemów uczących się, stanowiących obecnie podstawowy rodzaj zastosowań, w jakim wykorzystuje się rozwiązania oparte na tzw. ograniczonej sztucznej inteligencji. Pojęcie hakowania autorzy rozumieją bardzo szeroko: nie tylko jako włamywanie się do gotowych, działających już systemów, ale również jako świadomą szkodliwą ingerencję w systemy podczas całego ich cyklu życia, czyli również podczas ich budowy i strojenia. Książka jest adresowana z jednej strony do środowiska naukowego zajmującego się problematyką cyberbezpieczeństwa, a z drugiej do praktyków – zarówno do osób konstruujących systemy uczące się, jak i odpowiedzialnych w firmach za ryzyko operacyjne i ciągłość działania.

dr hab. Andrzej Kobyliński, prof. SGH

E-book „Hakowanie sztucznej inteligencji” - Wydawca: Naukowe PWN.

Spis treści:

Wstęp 9
Bibliografia 12
1. Wstęp do hakowania systemów uczących się 15
1.1. Wprowadzenie 16
1.2. Systemy uczące się 17
1.2.1. Definicja i rodzaje systemów uczących się 17
1.2.2. Zadanie klasyfikacji i uczenie nadzorowane 18
1.2.3. Ocena jakości klasyfikatora 19
1.2.4. Problemy budowania systemów uczących się 21
1.2.5. Potencjalne cele atakującego 22
1.3. Taksonomia ataków na systemy uczące się 23
1.3.1. K ryteria jakości ochrony informacji 23
1.3.2. Atak na integralność systemów nadzorowanych 25
1.3.2.1. Formalizacja ataku na integralność 25
1.3.2.2. Atak na proces budowania systemu 26
1.3.2.3. Atak na funkcjonujący system 27
1.3.3. Atak na integralność innych rodzajów systemów uczących się 29
Bibliografia 30
2. Przegląd reprezentatywnych ataków 33
2.1. Wprowadzenie 34
2.2. Zagrożenia dla systemów uwierzytelniania 35
2.3. Zagrożenia w systemach autonomicznych 40
2.4. Zagrożenia w systemach medycznych 45
2.5. Wnioski końcowe 49
Bibliografia 50
3. Wymiar biznesowy ataków na systemy uczące się 53
3.1. Wprowadzenie 54
3.2. Robotyzacja i automatyzacja procesów biznesowych 55
3.2.1. Robotyzacja procesów 55
3.2.2 Sztuczna inteligencja w robotyzacji procesów 57
3.3. Ryzyko operacyjne w procesach biznesowych 59
3.3.1. Problematyka ryzyka 60
3.3.2. Z arządzanie ryzykiem 60
3.3.3. Ryzyko w RPA działających z wykorzystaniem systemów uczących się 62
3.4. Zagrożenia związane z wykorzystaniem systemów uczących się w RPA 63
3.4.1. Wprowadzenie 63
3.4.2. Geneza ataków na systemy uczące się 65
3.4.3. Przykłady realnych zagrożeń 67
3.4.3.1. U wagi wstępne 67
3.4.3.2. Przykład ataku infekcyjnego 68
3.4.3.3. Atak na automatyczny systemy w transakcji finansowych 69
3.4.3.4. Ataki na systemy rekomendacyjne 71
3.4.3.5. In ne zagrożenia 72
3.5. Zakończenie 74
Bibliografia 74
4. Studia przypadków 79
4.1. Atakowanie filt ru antyspamowego wykorzystującego system uczący się 80
4.1.1. Charakterystyka problemu 80
4.1.1.1. Wprowadzenie 80
4.1.1.2. D efinicja filtra antyspamowego 81
4.1.1.3. Problem filtrowania poczty elektronicznej w działalności biznesowej 84
4.1.1.4. Przegląd badań naukowych 85
4.1.2. Opis eksperymentu 88
4.1.2.1. Cel badania 88
4.1.2.2. D ostępne dane empiryczne 89
4.1.2.3. Problem hakowania systemów uczących się 91
4.1.3. Wnioski i rekomendacje 105
Bibliografia 107
4.2. Atak na system detekcji nadużyć w bankowości elektronicznej 110
4.2.1. P roblem nadużyć w bankowości elektronicznej 110
4.2.1.1. Wprowadzenie 110
4.2.1.2. D efinicja nadużycia w transakcjach bankowych 111
4.2.1.3. Wykrywanie nadużyć i przeciwdziałanie im 112
4.2.1.4. Standardowy system wykrywania i przeciwdziałania nadużyciom 113
4.2.2. Opis eksperymentu 115
4.2.2.1. Cel badania 115
4.2.2.2. Dostępne dane empiryczne 117
4.2.2.3. Generatywne sieci współzawodniczące (GANs) 118
4.2.2.4. Scenariusze przebiegu ataku 122
4.2.3. Modele generatora i dyskryminatora 125
4.2.3.1. Budowa modeli 125
4.2.3.2. Ewaluacja modeli 129
4.2.4. Wnioski ko ńcowe i rekomendacje 132
Bibliografia 133
5. Bezpieczeństwo aplikacji systemów uczących się 137
5.1. Wprowadzenie 138
5.2. Wybrane problemy niezawodności oprogramowania 139
5.2.1. Problem złożoności kodu 139
5.2.2. Przepełnienie bufora oraz odczyt poza nim 141
5.2.3. D ostęp po zwolnieniu pamięci 142
5.2.4. Niewłaściwa deserializacja i wstrzykiwanie danych 142
5.3. At aki na środowiska programistyczne i sprzęt dla systemów uczących się 143
5.3.1. Atak na platformę programistyczną 143
5.3.2. Atak na sprzęt na przykładzie Deep Hammer 145
5.4. Ataki na biblioteki z wykorzystaniem automatycznych metod testowania oprogramowania 146
5.4.1. Wprowadzenie 146
5.4.2. Atak na bibliotekę OpenCV 147
5.4.3. Atak na bibliotekę dlib 150
5.4.4. Podsumowanie podatności znalezionych za pomocą automatycznych metod testowania oprogramowania 152
5.5. Wnioski i kierunki dalszego działania 153
Bibliografia 154
Zakończenie 157
Bibliografia 159