Prosimy o wyłączenie blokowania reklam i odświeżenie strony.
Ich spostrzeżenia zostały zebrane w raporcie
Europolu pod tytułem
„ChatGPT – the impact of Large Language Models on Law Enforcement” (ChatGPT – wpływ dużych modeli językowych na egzekwowanie prawa). Dokument ten zawiera przegląd potencjalnych nadużyć ChatGPT i oferuje spojrzenie na to, co może jeszcze nadejść.
Celem tego raportu jest podniesienie świadomości na temat potencjalnego niewłaściwego wykorzystania LLM, rozpoczęcie dialogu z firmami zajmującymi się sztuczną inteligencją (AI), aby pomóc im w stworzeniu lepszych zabezpieczeń, oraz promowanie rozwoju bezpiecznych i godnych zaufania systemów AI.
Dłuższa i bardziej dogłębna wersja tego raportu została opracowana wyłącznie dla organów ścigania.
Co to są duże modele językowe?
Duży model językowy to rodzaj systemu sztucznej inteligencji, który może przetwarzać, manipulować i generować tekst.
Uczenie LLM obejmuje dostarczanie mu dużych ilości danych, takich jak książki, artykuły i strony internetowe, aby mógł przyswajać wzorce i połączenia między słowami w celu generowania nowych treści.
ChatGPT to LLM, który został opracowany przez
OpenAI i udostępniony szerszej publiczności w listopadzie 2022 roku.
Obecny publicznie dostępny model leżący u podstaw ChatGPT jest w stanie przetwarzać i generować tekst podobny do ludzkiego w odpowiedzi na zapytania użytkownika. W szczególności model może odpowiadać na pytania dotyczące różnych tematów, tłumaczyć tekst, angażować się w konwersację (czatować), generować nowe treści i tworzyć funkcjonalny kod.
Ciemna strona dużych modeli językowych
Ponieważ możliwości LLM, takich jak ChatGPT, są stale ulepszane, potencjalne wykorzystanie tego typu systemów sztucznej inteligencji przez przestępców wiąże się z ponurymi perspektywami.
Wśród wielu obszarów budzących niepokój wskazanych przez ekspertów Europolu znajdują się następujące trzy obszary przestępczości:
- Oszustwa i socjotechnika: zdolność ChatGPT do tworzenia wysoce realistycznych tekstów sprawia, że jest to przydatne narzędzie do celów phishingowych. Zdolność LLM do odtwarzania wzorców językowych może być wykorzystana do podszywania się pod styl wypowiedzi określonych osób lub grup. Zdolność ta może być nadużywana na dużą skalę w celu zmylenia potencjalnych ofiar, aby zaufały podmiotom przestępczym.
- Dezinformacja: ChatGPT przoduje w tworzeniu autentycznie brzmiącego tekstu z dużą szybkością i na dużą skalę. To sprawia, że model idealnie nadaje się do celów propagandowych i dezinformacyjnych, ponieważ umożliwia użytkownikom generowanie i rozpowszechnianie komunikatów odzwierciedlających określoną narrację przy stosunkowo niewielkim wysiłku.
- Cyberprzestępczość: Oprócz generowania języka podobnego do ludzkiego, ChatGPT jest w stanie tworzyć kod w wielu różnych językach programowania. Dla potencjalnego przestępcy o niewielkiej wiedzy technicznej jest to nieocenione źródło tworzenia szkodliwego kodu.
Wraz z postępem technologicznym i pojawianiem się nowych modeli coraz ważniejsze dla organów ścigania będzie pozostawanie na czele tych zmian w celu przewidywania nadużyć i zapobiegania im.
Materiał chroniony prawem
autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy.