Jakiś czas temu FACEIT oraz Google połączyły siły, by wspólnie zwalczać toksyczne zachowania, jakie często mają miejsce w środowisku graczy. W tym celu obie firmy stworzyły sztuczną inteligencję, której celem było wyłapywanie oraz karanie członków społeczności CS:GO, których maniery, lekko mówiąc, pozostawiały sporo do życzenia.
Wspomniane SI otrzymało nazwę Minerva i pierwsze miesiące swojego istnienia spędziło na nauce, by w jak największym stopniu zminimalizować ryzyko błędu. Pod koniec sierpnia jednak program trafił wreszcie na platformę FACEIT i od tego czasu aż 90 tysięcy razy przekazywał graczom ostrzeżenia, a w 20 tysiącach przypadków nakładał bany na użytkowników odznaczających się toksycznymi zachowaniami w obrębie czatu oraz spamowaniem. A wszystko to bez jakiejkolwiek ingerencji żywego człowieka. Jak na oficjalnym blogu wyjaśniają przedstawiciele FACEIT:
Jeżeli jakaś wiadomość w kontekście całej rozmowy uznana zostanie za toksyczną, Minerva przekazuje ostrzeżenie za zachowania w czacie głosowym lub też oznacza wiadomości w czacie tekstowym jako spam. Minerva jest w stanie podjąć odpowiednią decyzję w zaledwie kilka sekund po zakończeniu meczu: jeżeli wykryje jakiekolwiek nadużycie, od razu wysyła do sprawcy wiadomość świadczącą o ostrzeżeniu lub też nałożeniu kary.
Sztuczna inteligencja wydaje się więc być idealnym narzędziem w walce z nieuprzejmymi zawodnikami. Potwierdzają to też opublikowane przez FACEIT liczby – od momentu wprowadzenia Minervy poziom toksyczności spadł o ponad 20%. W sierpniu tego typu zachowań naliczono 2 280 769, podczas gdy we wrześniu ich liczba wyniosła już 1 821 723.