Facebook sta testando l’intelligenza artificiale per costringerti a smettere di combattere nei suoi gruppi

Facebook sta testando l’intelligenza artificiale per costringerti a smettere di combattere nei suoi gruppi
Le conversazioni possono rapidamente sfuggire al controllo su Internet Sito di social network Facebook Spera che l’intelligenza artificiale possa aiutare a mantenere le cose civili.

Il social network sta testando l’uso dell’intelligenza artificiale per rilevare le battaglie nei suoi numerosi gruppi in modo che gli amministratori del gruppo possano aiutare a calmare le cose.

L’annuncio è arrivato in un post sul blog in cui Facebook ha lanciato una serie di nuovi strumenti software per aiutare gli oltre 70 milioni di persone che gestiscono e gestiscono gruppi sulla sua piattaforma.

Il social network sta testando l’uso dell’intelligenza artificiale per rilevare le battaglie nei suoi numerosi gruppi in modo che gli amministratori del gruppo possano aiutare a calmare le cose. (AFP)

Facebook, che ha 2,85 miliardi di utenti mensili, ha dichiarato alla fine dello scorso anno che più di 1,8 miliardi di persone partecipano ai gruppi ogni mese e che ci sono decine di milioni di gruppi attivi sul social network.

Insieme ai nuovi strumenti di Facebook, l’intelligenza artificiale deciderà quando inviare quelli che l’azienda chiama “avvisi di conflitto” a coloro che hanno gruppi.

La società ha affermato che verranno inviati avvisi agli amministratori se l’intelligenza artificiale determina che la conversazione nel loro gruppo è “controversa o” malsana”.

Per anni, piattaforme tecnologiche come Facebook e Twitter hanno fatto sempre più affidamento sull’intelligenza artificiale per determinare gran parte di ciò che vedi online, dagli strumenti che rilevano e rimuovono l’incitamento all’odio su Facebook ai tweet che appaiono su Twitter nella tua cronologia.

Mark Zuckerberg, CEO di Facebook. (AFP)

Questo può essere utile per contrastare i contenuti che gli utenti non vogliono vedere e l’intelligenza artificiale può aiutare i moderatori umani a ripulire i social network che sono diventati troppo grandi per consentire alle persone di monitorare se stessi.

I modi in cui funzionano i sistemi di moderazione basati sull’intelligenza artificiale possono sembrare ambigui e dannosi per gli utenti.

Un portavoce di Facebook ha affermato che l’intelligenza artificiale dell’azienda utilizzerà diversi segnali delle conversazioni per determinare quando inviare un avviso di conflitto, compresi i tempi di risposta ai commenti e il volume dei commenti su un post.

Ha detto che alcuni funzionari hanno già avvisi di parole chiave in grado di rilevare argomenti che potrebbero anche portare a discussioni.

Se l’amministratore riceve un avviso sul conflitto, potrebbe intraprendere azioni che Facebook ha affermato mirate a rallentare le conversazioni, probabilmente nella speranza di calmare gli utenti.

Queste mosse possono includere una limitazione temporanea della frequenza con cui alcuni membri del gruppo pubblicano commenti e una limitazione della velocità con cui vengono scritti i commenti sui singoli post.

Schermate di un argomento fasullo che Facebook ha usato per mostrare come potrebbe funzionare presentava una chat fuori dai binari in un gruppo chiamato “Altri cuccioli popolari”, in cui un utente risponde a un altro post scrivendo “Stai zitto, sei così stupido. Smettila di parlare di cibo.” Biologico idiota!!!”

“Sciocchi!” Un altro utente risponde nell’esempio. “Se queste sciocchezze continuano a succedere, lascerò la band!”

La conversazione appare su uno schermo con le parole “Equinox Alerts” in alto, sotto il quale appaiono diverse parole in nero all’interno di bolle grigie.

Tutto a destra, la parola “conflitto” appare in blu in una bolla blu.

By Orsina Fiorentini

"Fan zombi sottilmente affascinante. Fanatico della TV. Creatore devoto. Amico degli animali ovunque. Praticante del caffè."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *