Strona główna Polityka Wiadomości dotyczące bezpieczeństwa w tym tygodniu: kreatywna sztuczka sprawia, że ​​ChatGPT wypluwa...

Wiadomości dotyczące bezpieczeństwa w tym tygodniu: kreatywna sztuczka sprawia, że ​​ChatGPT wypluwa instrukcje dotyczące tworzenia bomb

13
0


Po prezentacji produktu Apple w tym tygodniu firma WIRED szczegółowo zapoznała się z nowym bezpiecznym środowiskiem serwerowym firmy, znanym jako Private Cloud Compute, które próbuje odtworzyć w chmurze bezpieczeństwo i prywatność przetwarzania danych lokalnie na indywidualnych urządzeniach użytkowników. Celem jest zminimalizowanie możliwego narażenia danych przetwarzanych przez Apple Intelligence, nową platformę sztucznej inteligencji firmy. Oprócz usłyszenia o PCC od starszego wiceprezesa ds. inżynierii oprogramowania firmy Apple, Craiga Federighiego, czytelnicy WIRED mogli także po raz pierwszy przyjrzeć się treściom generowanym przez funkcję „Image Playground” firmy Apple Intelligence w ramach kluczowych aktualizacji z okazji niedawnych urodzin psa Federighi, Baileya.

Wracając do zupełnie innego rodzaju ochrony prywatności w innej nowej usłudze sztucznej inteligencji, w projekcie WIRED przyjrzano się, w jaki sposób użytkownicy platformy mediów społecznościowych X mogą chronić swoje dane przed pochłonięciem przez „niezdarne” narzędzie generatywnej sztucznej inteligencji firmy xAI, znane jako Grok AI. Jeśli chodzi o inne wiadomości na temat produktów Apple, badacze opracowali technikę wykorzystywania śledzenia wzroku do rozpoznawania haseł i kodów PIN wpisywanych przez ludzi przy użyciu awatarów 3D Apple Vision Pro — coś w rodzaju keyloggera dla rzeczywistości mieszanej. (Błąda, która umożliwiła zastosowanie tej techniki, została już naprawiona.)

Jeśli chodzi o bezpieczeństwo narodowe, Stany Zjednoczone postawiły w tym tygodniu zarzuty dwóm osobom oskarżonym o szerzenie propagandy mającej inspirować ataki terrorystyczne „samotnego wilka”. Sprawa przeciwko rzekomym członkom skrajnie prawicowej siatki znanej jako Terrorgram Collective oznacza zwrot w sposobie, w jaki Stany Zjednoczone rozprawiają się z neofaszystowskimi ekstremistami.

I jest jeszcze więcej. Co tydzień podsumowujemy wiadomości dotyczące prywatności i bezpieczeństwa, których sami nie omówiliśmy szczegółowo. Kliknij nagłówki, aby przeczytać pełne artykuły. I bądź tam bezpieczny.

Platforma generatywnej sztucznej inteligencji OpenAI, ChatGPT, została zaprojektowana z rygorystycznymi barierami, które powstrzymują usługę przed oferowaniem porad na niebezpieczne i nielegalne tematy, takich jak wskazówki dotyczące prania pieniędzy lub instrukcje dotyczące pozbycia się ciała. Jednak artysta i haker posługujący się pseudonimem „Amadon” znaleźli sposób na oszukanie chatbota lub jego „jailbreak”, każąc mu „zagrać w grę”, a następnie wprowadzając go w fantastyczną historię science-fiction, w której ograniczenia systemu nie zadziałały. nie stosować. Następnie Amadon nakłonił ChatGPT do wyplucia instrukcji dotyczących wytwarzania niebezpiecznych bomb nawozowych. Rzecznik OpenAI nie odpowiedział na zapytania TechCruncha dotyczące badań.

„Chodzi o tkanie narracji i tworzenie kontekstów zgodnych z zasadami systemu, przesuwanie granic bez ich przekraczania. Celem nie jest hakowanie w konwencjonalnym sensie, ale zaangażowanie się w strategiczny taniec ze sztuczną inteligencją w celu ustalenia, jak uzyskać właściwą reakcję, rozumiejąc, jak ona „myśli”” – powiedział Amadon TechCrunch. „Scenariusz science-fiction wyrywa sztuczną inteligencję z kontekstu, w którym szuka ona ocenzurowanych treści… Naprawdę nie ma ograniczeń co do tego, o co możesz zapytać, gdy już ominiesz barierki”.

W trakcie żarliwych dochodzeń prowadzonych po atakach terrorystycznych z 11 września 2001 r. w Stanach Zjednoczonych zarówno FBI, jak i CIA doszły do ​​wniosku, że to przypadek, że urzędnik z Arabii Saudyjskiej pomógł dwóm porywaczom w Kalifornii i że nie było Udział Arabii Saudyjskiej w atakach. Komisja ds. 11 września uwzględniła to ustalenie, ale pewne ustalenia wskazano następnie, że wnioski mogą nie być rozsądne. Z okazji 23. rocznicy ataków, które w tym tygodniu minęły, ProPublica opublikowała nowe dowody „sugerują[ing] mocniej niż kiedykolwiek, że co najmniej dwóch saudyjskich urzędników celowo pomagało pierwszym porywaczom z Kaidy, gdy przybyli do Stanów Zjednoczonych w styczniu 2000 roku”.

Dowody pochodzą przede wszystkim z federalnego pozwu przeciwko rządowi Arabii Saudyjskiej wniesionego przez osoby, które przeżyły ataki z 11 września, oraz krewnych ofiar. Sędzia w Nowym Jorku wkrótce podejmie decyzję w tej sprawie w sprawie wniosku Arabii Saudyjskiej o oddalenie wyroku. Jednak dowody, które pojawiły się już w tej sprawie, w tym nagrania wideo i dokumenty, takie jak nagrania rozmów telefonicznych, wskazują na możliwe powiązania między rządem Arabii Saudyjskiej a porywaczami.

„Dlaczego ta informacja pojawia się teraz?” powiedział emerytowany agent FBI Daniel Gonzalez, który przez prawie 15 lat ścigał saudyjskie powiązania. „Powinniśmy byli mieć to wszystko trzy lub cztery tygodnie po 11 września”.

Brytyjska Narodowa Agencja ds. Przestępczości poinformowała w czwartek, że 5 września aresztowała nastolatka w ramach śledztwa w sprawie cyberataku, który miał miejsce 1 września na londyńską agencję transportową Transport for London (TfL). Podejrzany to 17-letni mężczyzna, którego nazwiska nie podano. Został „zatrzymany pod zarzutem popełnienia przestępstw wynikających z ustawy o nadużyciach komputerowych” i od tego czasu został zwolniony za kaucją. w oświadczenie w czwartek TfL napisała: „Nasze dochodzenie wykazało, że uzyskano dostęp do niektórych danych klientów. Obejmuje to niektóre nazwiska klientów i dane kontaktowe, w tym adresy e-mail i adresy domowe, jeśli zostały podane. Dostęp do niektórych danych związanych z londyńskimi kartami płatniczymi, znanymi jako karty Oyster, mogło uzyskać dostęp około 5000 klientów, w tym numery rachunków bankowych. TfL jest podobno wymagające osobistej obecności około 30 000 użytkowników w celu zresetowania danych uwierzytelniających ich konta.

w decyzja we wtorek Trybunał Konstytucyjny zablokował starania niższej izby polskiego parlamentu, zwanej Sejmem, mające na celu wszczęcie śledztwa w sprawie rzekomego używania przez ten kraj cieszącego się złą sławą narzędzia hakerskiego znanego jako Pegasus za sprawowania władzy przez Prawo i Sprawiedliwość (PiS) od 2015 do 2023 r. Za zablokowanie śledztwa odpowiedzialnych było trzech sędziów powołanych przez PiS. Od decyzji nie przysługuje odwołanie. Decyzja budzi kontrowersje, a niektórzy, jak poseł Magdalena Sroka, twierdzą, że była „podyktowana obawą przed odpowiedzialnością”.



Link źródłowy