Przejdź do treści

Teksty tworzone przez e-inteligencję o takiej samej wartości jak tworzone przez ludzi – wyzwaniem pod kątem cyberbezpieczeństwa

Kuba Białczyk; fot. Newseria Innowacje

Model językowy w trzy sekundy nauczy się sposobu mówienia danej osoby, a potem wypowie dowolny komunikat jej głosem i z jej emocjami. Najprawdopodobniej w takim kierunku rozwiną się algorytmy generujące dziś komunikaty tekstowe o walorach równoznacznych z tymi, które tworzą ludzie.

Rynek technologii przetwarzania języka naturalnego do końca dekady wzrośnie niemal 20-krotnie

Choć technologia przynosi wiele korzyści, związanych np. z łatwiejszą komunikacją ze sztuczną inteligencją, to pojawiają się obawy o jej nieetyczne wykorzystanie, np. w cyberatakach czy tworzeniu bardzo wiarygodnych fake newsów. Te ryzyka nie zagrożą jednak rozwojowi takich rozwiązań i ich wdrażaniu na masową skalę. Rynek technologii przetwarzania języka naturalnego do końca dekady wzrośnie niemal dwudziestokrotnie.

Fenomen ChatGPT

– Fenomen ChatGPT jest taki, że po raz pierwszy tak zaawansowana technologia do generowania tekstu trafiła do mainstreamu. Stała się wręcz viralem i trafiła do bardzo szerokiego grona odbiorców z różnych dziedzin oraz z różnego poziomu zaawansowania technologicznego – ocenia w rozmowie z agencją Newseria Innowacje Kuba Białczyk, założyciel i przewodniczący Klubu Naukowego Koźmiński AI na Akademii Leona Koźmińskiego w Warszawie.

Platforma opiera się na modelu obejmującym już 175 mld parametrów.

ChatGPT jest platformą sztucznej inteligencji mogącą generować tekst o wartości porównywalnej z takim, który stworzyłby człowiek. Rozwiązanie projektowane było z myślą o umożliwieniu prowadzenia rozmowy ze sztuczną inteligencją. Rozwijana przez ostatnich pięć lat platforma opiera się na modelu obejmującym już 175 mld parametrów.

Pracownicy mogą się nauczyć współpracować ze sztuczną inteligencją podczas swoich codziennych zadań w pracy

– Dzięki temu narzędziu pracownicy mogą się nauczyć współpracować ze sztuczną inteligencją podczas swoich codziennych zadań w pracy, przez co mogą osiągnąć dużo większą efektywność, zwiększyć swoją produktywność, a także pomóc swoim firmom wznieść się na wyższy poziom efektywności. Coraz bardziej otwarty dostęp i coraz większa demokratyzacja takich technologii sprawi, że osoby, które nie są specjalistami z dziedziny sztucznej inteligencji czy uczenia maszynowego, będą mogły tworzyć produkty technologiczne oparte właśnie na takich zaawansowanych technologiach jak ChatGPT i wypuszczać je na rynek – mówi Kuba Białczyk.

Firma OpenAI, stworzyła listę oczekujących na produkt ChatGPT Professional

Rozwiązanie jest obecnie w fazie testowania i w związku z tym udostępniane jest bezpłatnie. Twórca chatbota, firma OpenAI, stworzył listę oczekujących na produkt ChatGPT Professional, eksperymentalną, płatną wersję, zapewniającą szybsze działanie, większą przepustowość i możliwość obsłużenia dwukrotnie większej liczby zapytań.

Twórcy nie mówią też ostatniego słowa w kwestii funkcjonalności ChatGPT. Są w trakcie opracowywania algorytmów mogących odpowiadać już nie tylko pisemnie, lecz również ludzkim głosem. Choć korzyści związane z używaniem tego rozwiązania są oczywiste, pojawiają się również wątpliwości i zagrożenia.

Generowana treść ChatGPT nie zawsze jest prawdziwa i ciężko jest ją odróżnić od nieprawdziwej

– Jednym z zagrożeń, które wiąże się z używaniem ChatGPT na taką skalę, jest generowana treść, która nie zawsze jest prawdziwa, i bardzo często ciężko jest ją odróżnić od nieprawdziwej. Użytkownicy potem publikują te treści dalej w internecie lub wykorzystują w swojej pracy, nie wiedząc, że nie są one prawdziwe. Używanie rozwiązania na taką skalę w mass mediach może prowadzić do ogromnego problemu z fake newsami i z ich detekcją – zauważa Kamil Kinastowski z Akademii Leona Koźmińskiego.

Coraz trudniej będzie odróżnić fałszywą treść maila od nadawcy podszywającego się np. od banku czy dostawcy mediów

Eksperci WithSecure podkreślają także ryzyko, jakim jest wykorzystywanie tych narzędzi do różnego rodzaju cyberataków. Seria przeprowadzonych przez nich eksperymentów wskazała, że modele językowe wykorzystujące sztuczną inteligencję zwiększają skuteczność komunikacji będącej częścią ataku. Wraz z doskonaleniem takich narzędzi coraz trudniej będzie odróżnić fałszywą treść maila od nadawcy podszywającego się np. od banku czy dostawcy mediów. Z kolei operatorzy platform społecznościowych będą mieli większe trudności, by rozpoznać obraźliwe treści tworzone przez boty.

Eksperci WithSecure prognozują więc, że cyberprzestępcy będą w nieprzewidywalny sposób rozwijać możliwości, jakie dają duże modele językowe.
Udostępnij: