I

Inwestycja w przyszłość, tak można nazwać rozwijaną przez Polaków technologię sztucznej inteligencji. Jej celem jest ochrona dzieci i społeczności przed przemocą w sieci. Cel ten postanowił zrealizować Michał Wroczyński, lekarz i przedsiębiorca, który od 10 lat zajmuje się tworzeniem innowacyjnych rozwiązań.

Całe przedsięwzięcie wsparli Robert Lewandowski i anioł biznesu – Dawid Urban. Samurai Labs to laboratorium, które za pomocą sztucznej inteligencji wykrywa i zapobiega przemocy w sieci.

Michał Wroczyński jest założycielem kilku startupów, w tym Fido AI, które wykorzystuje sztuczną inteligencję do analizowania opinii internautów. Stworzył również pierwszy na świecie program do wykrywania treści pedofilskich w Internecie (Cerber) oraz system do wykrywania agresji online (ISPAD). Samurai Labs to jego szósty projekt, którym kieruje. Siedziba firmy mieści się w Berkeley w Dolinie Krzemowej, zaś samo laboratorium w PPNT w Gdyni. – Cyberprzemoc ma swoje konsekwencje zarówno społeczne, jak i biznesowe. Jej efektem jest wzrost zachorowań na depresję, samobójstwa u dzieci, a także przemoc np. wobec kobiet, co skutkuje poczuciem zagrożenia w Internecie. Powoduje też spadek zaufania do usług online i wiąże się z lawinowym odpływem użytkowników. Według badań organizacji zajmującej się przemocą w Internecie Ditch the Label z 2017 r. ponad 1/5 graczy odeszła z gry z powodu cyberbullyingu – mówi twórca Samurai Labs Michał Wroczyński. – Wielu właścicieli platform internetowych jest zgodnych co do tego, że takie treści należy niezwłocznie usuwać. Dotychczas brakowało jednak narzędzi, które dość szybko są wstanie precyzyjnie je wykrywać, nie mówiąc już o wstrzymaniu komunikatu, zanim dotrze on do odbiorcy i wyrządzi krzywdę, np. dziecku – dodaje Wroczyński.

Jak działa Samurai?

Technologia Samurai może być wykorzystywana wszędzie tam, gdzie internauci są narażeni na przemoc internetową, m.in.: na forach internetowych, w serwisach randkowych czy w grach online. Testowany obecnie prototyp działa na zasadzie połączenia uczenia maszynowego z wnioskowaniem, co pozwala na analizowanie rozmów i znajdowanie przypadków przemocy. To tak zwana trzecia fala sztucznej inteligencji (ang. the third wave of AI), nazwana tak w 2017 roku przez Agencję Zaawansowanych Projektów Badawczych w Obszarze Obronności (Defense Advanced Research Projects Agency, DARPA) Wroczyński wyjaśnia, że szkodliwe treści będą przez system automatycznie blokowane i raportowane do moderatora forum, który podejmie ostateczną decyzję dotyczącą czasowego lub stałego zablokowania użytkownika. W przypadku przestępstwa np. wykrycia działań pedofila, który próbuje umówić się z dzieckiem, system automatycznie zablokuje użytkownika, a administratorzy serwisu powiadomią odpowiednie instytucje. Jak wynika z badań naukowców z Akademii Górniczo-Hutniczej w Krakowie, którzy przeanalizowali działania pięciu aktualnie stosowanych produktów internetowych do wykrywania przemocy w sieci – sztuczna inteligencja Samurai była w stanie wykryć najwięcej, bo aż 84 proc. przypadków przemocy, jednocześnie średnio czterokrotnie rzadziej podnosząc fałszywy alarm.