Przedmowa
Wprowadzenie
Rozdział 1. Zarządzanie danymi i proste podejście do prywatności
Zarządzanie danymi – co to jest?
Identyfikacja danych wrażliwych
Wskazywanie informacji umożliwiających identyfikację osoby
Dokumentowanie danych do wykorzystania
Podstawowa dokumentacja danych
Wyszukiwanie i dokumentowanie nieznanych danych
Określanie pochodzenia danych
Kontrolowanie wersji danych
Podstawowa prywatność – pseudonimizacja na potrzeby ochrony prywatności w fazie projektowania
Podsumowanie
Rozdział 2. Anonimizacja
Co to jest anonimizacja?
Definicja prywatności różnicowej
Epsilon – czym jest utrata prywatności?
Co gwarantuje prywatność różnicowa, a czego nie?
Zrozumienie prywatności różnicowej
Prywatność różnicowa w praktyce – anonimizacja spisu powszechnego w USA
Prywatność różnicowa z mechanizmem Laplace’a
Prywatność różnicowa z rozkładem Laplace’a – podejście naiwne
Czułość i błąd
Budżety prywatności
Inne mechanizmy – szum gaussowski w prywatności różnicowej
Porównanie szumu Laplace’a i Gaussa
Prywatność różnicowa w świecie rzeczywistym – usuwanie obciążenia zaszumionych wyników
Jednostki czułości i prywatności
A co z k-anonimowością?
Podsumowanie
Rozdział 3. Uwzględnianie prywatności w potokach danych
Jak wbudować prywatność w potoki danych?
Zaprojektuj odpowiednie środki ochrony prywatności
Spotykaj się z użytkownikami tam, gdzie się znajdują
Implementowanie prywatności
Testowanie i weryfikowanie
Inżynieria prywatności i zarządzania danymi w potokach
Przykładowy przepływ pracy w udostępnianiu danych
Dodawanie do gromadzonych danych informacji o pochodzeniu i zgodzie
Wykorzystywanie bibliotek prywatności różnicowej w potokach
Anonimowe gromadzenie danych
Gromadzenie danych z prywatnością różnicową przez Apple
Dlaczego pierwotne zbieranie danych z prywatnością różnicową w Chrome zostało porzucone?
Współpraca z zespołem inżynierii danych i kierownictwem
Podziel się odpowiedzialnością
Tworzenie przepływów pracy uwzględniających dokumentowanie i prywatność
Prywatność jako podstawowa propozycja wartości
Podsumowanie
Rozdział 4. Ataki na prywatność
Ataki na prywatność – analiza typowych wektorów ataków
Atak na Netflix Prize
Ataki połączeniowe
Ataki identyfikacyjne
Atak na mapę Strava
Atak wnioskujący o członkostwo
Wnioskowanie o atrybutach wrażliwych
Inne ataki bazujące na wycieku z modelu – zapamiętywanie
Ataki polegające na kradzieży modeli
Ataki na protokoły prywatności
Bezpieczeństwo danych
Kontrola dostępu
Zapobieganie utracie danych
Dodatkowe kontrole bezpieczeństwa
Modelowanie zagrożeń i reagowanie na incydenty
Probabilistyczne podejście do ataków
Przeciętna osoba atakująca
Pomiar ryzyka i ocena zagrożeń
Środki zaradcze dotyczące bezpieczeństwa danych
Stosowanie podstawowych zabezpieczeń sieci web
Ochrona danych treningowych i modeli
Bądź na bieżąco – poznawanie nowych ataków
Podsumowanie
Rozdział 5. Uczenie maszynowe i nauka o danych uwzględniające prywatność
Wykorzystanie technik ochrony prywatności w uczeniu maszynowym
Techniki ochrony prywatności w typowym przepływie pracy nauki o danych lub uczenia maszynowego
Uczenie maszynowe chroniące prywatność w środowisku naturalnym
Stochastyczne zejście gradientowe z prywatnością różnicową
Biblioteki open source w uczeniu maszynowym chroniącym prywatność
Tworzenie cech z prywatnością różnicową
Stosowanie prostszych metod
Dokumentowanie uczenia maszynowego
Inne sposoby ochrony prywatności w uczeniu maszynowym
Uwzględnianie prywatności w projektach związanych z danymi i uczeniem maszynowym
Zrozumienie potrzeb w zakresie ochrony danych
Monitorowanie prywatności
Podsumowanie
Rozdział 6. Uczenie federacyjne i nauka o danych
Dane rozproszone
Dlaczego warto korzystać z danych rozproszonych?
Jak działa rozproszona analiza danych?
Zachowujące prywatność dane rozproszone z prywatnością różnicową
Uczenie federacyjne
Krótka historia uczenia federacyjnego
Dlaczego, kiedy i jak korzystać z uczenia federacyjnego
Projektowanie systemów federacyjnych
Przykładowa implementacja
Zagrożenia dla bezpieczeństwa
Przypadki użycia
Wdrażanie bibliotek i narzędzi federacyjnych
Biblioteki federacyjne typu open source
Flower – ujednolicony system operacyjny dla bibliotek uczenia federacyjnego
Przyszłość federacyjnej nauki o danych
Podsumowanie
Rozdział 7. Obliczenia na danych zaszyfrowanych
Czym są obliczenia na danych zaszyfrowanych?
Kiedy używać obliczeń na danych zaszyfrowanych?
Prywatność a tajność
Modelowanie zagrożeń
Rodzaje obliczeń na danych zaszyfrowanych
Bezpieczne obliczenia wielostronne
Szyfrowanie homomorficzne
Rzeczywiste zastosowania obliczeń na danych zaszyfrowanych
Część wspólna zbiorów prywatnych
Protokół Private Join and Compute
Bezpieczna agregacja
Uczenie maszynowe na danych zaszyfrowanych
Pierwsze kroki z PSI i Moose
Świat z bezpiecznym udostępnianiem danych
Podsumowanie
Rozdział 8. Prawna strona prywatności
RODO – przegląd
Podstawowe prawa do danych wynikające z RODO
Administrator danych a podmiot przetwarzający dane
Stosowanie zgodnych z RODO technologii zwiększających prywatność
Ocena skutków dla ochrony danych w RODO – zwinna i iteracyjna ocena ryzyka
Prawo do wyjaśnień – interpretowalność i prywatność
Kalifornijska ustawa o ochronie prywatności konsumentów (CCPA)
Stosowanie zgodnych z CCPA technologii zwiększających prywatność
Inne regulacje: HIPAA, LGPD, PIPL.
Regulacje wewnętrzne
Polityka prywatności i warunki korzystania z usługi
Umowy o przetwarzaniu danych
Zapoznawanie się z zasadami, wytycznymi i umowami
Współpraca z prawnikami
Przestrzeganie ustaleń umownych i prawo umów
Interpretacja przepisów o ochronie danych
Prośba o pomoc i radę
Wspólna praca nad definicjami i pomysłami
Udzielanie wskazówek technicznych
Zarządzanie danymi 2.0
Czym jest zarządzanie federacyjne?
Wspieranie kultury eksperymentowania
Działająca dokumentacja, platformy z technologią zwiększającą prywatność
Podsumowanie
Rozdział 9. Rozważania dotyczące prywatności i praktyczności
Praktyka – zarządzanie ryzykiem związanym z prywatnością i bezpieczeństwem
Ocena ryzyka związanego z prywatnością i zarządzanie nim
Uwzględnianie niepewności przy planowaniu na przyszłość
Zabieranie głosu i podnoszenie na duchu
Technologia prywatności w praktyce – analiza przypadków użycia
Marketing federacyjny – prowadzenie kampanii marketingowych z wbudowaną prywatnością
Partnerstwa publiczno-prywatne – wymiana danych na potrzeby zdrowia publicznego
Zanonimizowane uczenie maszynowe – poszukiwanie zgodności z RODO w iteracyjnych ustawieniach uczenia
Aplikacja B2B – bez kontaktu z danymi
Krok po kroku – jak zintegrować i zautomatyzować prywatność w uczeniu maszynowym
Odkrywanie iteracyjne
Dokumentowanie wymagań dotyczących prywatności
Ocena i łączenie podejść
Przejście na automatyzację
Prywatność staje się normalnością
Perspektywa na przyszłość – praca z bibliotekami i zespołami naukowymi
Współpraca z zewnętrznymi zespołami naukowymi
Inwestowanie w badania wewnętrzne
Podsumowanie
Rozdział 10. Najczęściej zadawane pytania (i odpowiedzi na nie!)
Obliczenia na danych zaszyfrowanych i poufne przetwarzanie danych
Czy obliczenia zabezpieczone są kwantowo bezpieczne?
Czy można używać enklaw do rozwiązywania problemów z prywatnością danych lub ich poufnością?
Co będzie, jeśli muszę chronić prywatność klienta lub użytkownika, który wysyła zapytanie lub żądanie do bazy danych?
Czy problem prywatności mogą rozwiązać clean rooms lub zdalna analiza i zdalny dostęp do danych?
Chcę zapewnić idealną prywatność lub idealną poufność. Czy jest to możliwe?
Jak ustalić, czy obliczenia na danych zaszyfrowanych są wystarczająco bezpieczne?
Jak zarządzać rotacją kluczy w przypadku obliczeń na danych zaszyfrowanych?
Czym jest piaskownica prywatności Google? Czy wykorzystuje obliczenia na danych zaszyfrowanych?
Zarządzanie danymi i mechanizmy ochrony
Dlaczego k-anonimowość nie jest wystarczająca?
Nie sądzę, by prywatność różnicowa działała w moim przypadku użycia. Co mam zrobić?
Czy mogę używać danych syntetycznych do rozwiązywania problemów dotyczących prywatności?
Jak etycznie współdzielić dane, czyli jakie są alternatywy dla sprzedaży danych?
Jak mogę znaleźć wszystkie prywatne informacje, które muszę chronić?
Po usunięciu identyfikatorów osobistych dane są bezpieczne, prawda?
Jak wnioskować o danych opublikowanych w przeszłości?
Pracuję nad pulpitem nawigacyjnym lub wizualizacją analizy biznesowej. Jak sprawić, by były przyjazne dla prywatności?
Kto podejmuje decyzje dotyczące inżynierii prywatności? Jak mam to wprowadzić w swojej organizacji?
Jakich umiejętności lub jakiego doświadczenia potrzebuję, by zostać inżynierem do spraw prywatności?
Dlaczego nie było mowy o (wstaw tutaj technologię lub firmę)? Jak mogę dowiedzieć się więcej? Pomocy!
RODO i inne przepisy o ochronie danych osobowych
Czy naprawdę muszę używać prywatności różnicowej do otrzymania danych niepodlegających RODO, CPRA, LGPD itp.?
Czy to prawda, że mogę wykorzystywać dane osobowe podlegające RODO w uzasadnionym interesie?
Chcę zachować zgodność ze Schrems II i transatlantyckimi przepływami danych. Jakie są możliwe rozwiązania?
Wybory osobiste i prywatność społecznościowa
Jakiego dostawcy poczty e-mail, przeglądarki i aplikacji najlepiej użyć, jeśli zależy mi na mojej prywatności?
Mój znajomy ma automatycznego asystenta domowego lub telefonicznego. Nie chcę, żeby mnie podsłuchiwał. Co mam zrobić?
Już dawno zrezygnowałem z prywatności. Nie mam nic do ukrycia. Dlaczego mam to zmienić?
Czy mogę po prostu sprzedać swoje dane firmom?
Lubię spersonalizowane reklamy. Dlaczego nie?
Czy (wypełnij puste miejsce) mnie podsłuchuje? Co mam z tym zrobić?
Podsumowanie
Rozdział 11. Idź naprzód i projektuj prywatność!
Kapitalizm nadzoru i nauka o danych
Kapitalizm GIGerów i nadzór w działaniu
Nadzór dla „bezpieczeństwa”
Luksusowy nadzór
Rozległe zbieranie danych i społeczeństwo
Uczenie maszynowe jako pranie danych
Dezinformacja i wprowadzanie w błąd
Obrona
Badanie, dokumentowanie, hakowanie i uczenie się
Kolektywizacja danych
Kary nakładane w związku z regulacjami
Wsparcie dla społeczności
Czempioni prywatności
Twoje narzędzie wielofunkcyjne do zapewniania prywatności
Tworzenie wiarygodnych systemów uczenia maszynowego
Prywatność w fazie projektowania
Prywatność i władza
Tschüss
Skorowidz
Opinie
Na razie nie ma opinii o produkcie.