Tim Sweeney krytykuje nowe funkcje iOS i macOS związane z ochroną dzieci
W ubiegłym tygodniu Apple zapowiedziało nowe funkcje systemów iOS, iPadOS i macOS, mające na celu ochronę młodszych użytkowników. Niektóre z nich wzbudziły jednak sporo kontrowersji, spotykając się z krytyką ze strony specjalistów od zabezpieczeń i ochrony prywatności. Do sprawy tej odniósł się niedawno także Tim Sweeney - prezes firmy Epic Games, toczącej obecnie spór sądowy z Apple dotyczący sposobu funkcjonowania sklepu App Store i systemu iOS.
Pierwsza z nowych kontrowersyjnych funkcji polega na automatycznym analizowaniu zdjęć przesyłanych do chmury iCloud w celu sprawdzenia, czy nie znajduje się wśród nich pornografia dziecięca. Druga ma wykorzystywać sztuczną inteligencję do analizowania zdjęć wysyłanych i odbieranych przez młodszych użytkowników za pomocą komunikatora iMessage, w celu sprawdzenia czy nie zawierają treści pornograficznych.
Tim Sweeney opublikował w serwisie Twitter serię wpisów, w których krytykuje wspomniane funkcje. Podobnie jak wiele innych osób uważa on, że wprowadzenie ich stanowi zagrożenie dla prywatności użytkowników, gdyż wykorzystywane przez nie mechanizmy mogą w przyszłości posłużyć do szpiegowania obywateli przez rządy. Zwrócił on też uwagę na to, że jako iż wielu użytkowników produktów Apple nie zmienia nigdy domyślnych ustawień, w tym tych dotyczących automatycznego przesyłania zdjęć do iCloud, spora część z nich nawet nie będzie świadoma, że ich zdjęcia są analizowane.
Sweeney odniósł się też do argumentów używanych w obronie planów Apple. Jego zdaniem twierdzenie, że osoby nie popełniające przestępstw nie powinny się niczego obawiać, jest podejściem, które może nas doprowadzić do iście dystopijnej przyszłości, w której system prawny opiera się na domniemaniu winy a kontrolę nad nim sprawują prywatne korporacje. Dodał on też, że nie należy porównywać planów Apple do podobnych zabezpieczeń stosowanych w serwisach społecznościowych, gdyż w ich przypadku analizowane są treści mające zostać udostępnione publicznie, a nie prywatne zdjęcia.
Słusznie prawi. To jest wejście w sferę prywatną, co więcej Apple będzie po analizie wysyłać z automatu donosiki do służb. W przypadku dziecięcej pornografii wszelkie metody ścigania zwyrodnialców wydają się usprawiedliwione, ale... jak to będzie wyglądało, przykładowo, gdy tatuś z mamusią zrobią zdjęcia swoich pociech nad jeziorkiem, a te dzieci będą - jak to parolatki - latały na gołej dupie? Algorytm będzie tak sprytny, że odfiltruje to, co dozwolone, od tego co jest patolą? No szczerze wątpię czy kontekst każdorazowo będzie do wyłapania przez AI. I - co chyba niektórym umyka - nie chodzi tutaj o udostępnianie, tylko prywatne zdjęcia. Dodajmy do tego gigantyczny problem z właściwą interpretacją wielce popularnego zjawiska sextingu, gdzie imassege/facetime/cloud będzie pod stałym nadzorem.
Od tego są służby, żeby sprawdzać i łapać. Mają ku temu narzędzia, nawet w przypadku jabca z ich "niezrównanym" poziomem prywatności (zdezaktualizują się reklamy, oj zdezaktualizują) państwowe firmy z zapleczem (służby) są w stanie przetrzepać, namierzyć i złapać. Tu wchodzimy na poziom Wielki Brat patrzy. I to dosłownie, bo nie człowiek o tym decyduje, tylko algorytm i nie chodzi o to że algorytm analizuje, bo robi to od dawna, tylko jak wyżej: potencjalnie każdy jest winny, każdy jest podejrzany. To odwrócenie żelaznej zasady prawa w demokratycznych państwach: "każdy, komu nie udowodniono winy jest NIEWINNY". Po to stosuje się zgodę sądu na przetrzepanie cudzej własności, po to są nakazy... to powyżej całkowicie wywraca ten stan rzeczy. Bo zdjęcia prywatne są MOJĄ WŁASNOŚCIĄ. Nie Apple, nie jakiegoś rządu etc. Także to jest w oczywisty sposób przeciwko wolności osobistej, godzi w podstawowe prawa obywatelskie (w demokracji ofc, ale widać że Timowi odpowiada chiński kaganiec, co znajduje potwierdzenie w skandalicznych działaniach jabca w Hongkongu - szuja Tim współpracował z chińską bezpieką).
Poza tym widzę to szerzej - ok, jak Apple chce zbawiać świat (nie chce, Tim jest 100% hipokrytą) to niech się weźmie (udostępni swoje technologie, centra danych) do walki z patolą w darknecie. To jest coś, z czym należałoby bezwzględnie walczyć. Bo trzepanie machine learningiem prywatnych zdjęć miliardów klientów, z których 99% nie jest patolami to samo w sobie śmierdzi i wygląda od strony wolnościowej fatalnie. Jak tacy są "chojracy" to niech się biorą za zagłębie patolstwa, niech walczą z chińskimi i rosyjskimi służbami używającymi wszelkich podłych metod do walki z tzw. zachodnimi wartościami. Tim, dasz radę? Nie? No właśnie. Ten człowiek z gumy, bez właściwości, robi to wszystko tylko i wyłącznie w imię słupków. Jest dzisiaj jazda na zwiększenie kontroli, jest szansa na tym zarobić? No to jedziemy z tematem.