Intel ha presentato un software progettato per filtrare il linguaggio dannoso nelle chat vocali durante il gioco. Il software Bleep utilizza l’elaborazione AI per rimuovere insulti e linguaggio odioso prima ancora che abbiano la possibilità di colpire le cuffie. Sebbene non sia stata mostrata alcuna demo, sembra che il software registrerà il discorso come testo, filtrando qualsiasi linguaggio offensivo e monitorando la “temperatura della conversazione“.
Vengono classificati anche misoginia, insulti e incitamento all’odio razziale. Questi possono essere attivati e disattivati, così come ci sarà un cursore per ridimensionare il livello di tossicità cancellato dalla chat vocale, con l’obiettivo di consentire ai giocatori di “prendere il controllo della loro conversazione“, secondo Intel.
Molti giochi, e persino alcuni client come Steam, utilizzano già una qualche forma di filtro volgare che puoi attivare o disattivare, o addirittura sostituire i vostri messaggi con altre soluzioni, ma questi spesso si estendono solo alla chat di testo, lasciando la chat vocale un campo minato completo di abusi potenzialmente dannosi o scatenanti. Intel ha affermato che secondo The Anti-Defamation League, circa il 22% dei giocatori abbandona un gioco a causa di molestie.
Bleep è stato originariamente annunciato alla GDC 2019, quando era un primissimo prototipo. Intel ha annunciato alla più recente GDC che stanno pianificando di portare Bleep in beta quest’anno.
“Riconosciamo che la tecnologia non è la risposta completa“, ha detto Roger Chandler di Intel. “Ma crediamo che possa aiutare a mitigare il problema mentre vengono esplorate soluzioni più profonde“.
Solo poche settimane fa, Intel ha presentato le nuove CPU di 11a generazione.
E voi cosa ne pensate, era la soluzione che aspettavate? Fatecelo sapere nei commenti.
Fonte: pcgamer