Egyes internetes algoritmusok, melyeket a zaklató és bántalmazó tartalmak kiszűrésére terveztek, sokkal kevésbé hatékonyak, amennyiben hangulatjeleket is használnak az egyébként valóban bántó üzenet kifejezésére.
Miután az angol futballválogatott elveszítette a futball-Eb döntőjét, Marcus Rashford, Bukayo Saka és Jadon Sancho rasszista, gyalázkodó üzenetek özönét kapta a közösségi médiában, sokat majmos emojikkal – az angol bajnokság kezdetével lehet attól tartani, hogy az ilyenek megsokszorozódnak, hacsak a közösségi oldalak nem kezdik el hatékonyan kiszűrni az ilyen típusú tartalmakat. A ma használatos rendszerek olyan adatbázissal dolgoznak, amelyekben szövegek találhatók, nem pedig hangulatjelek: az ilyen rendszereket igencsak próbára teszi az, hogyha szimbólumokat is tartalmazó szövegeket kell feldolgozniuk.
A Sky News analíziséből kiderült, hogy
azokat az Instagram-fiókokat, amelyek hangulatjeleket is tartalmazó rasszista üzeneteket közvetítettek, háromszor kisebb eséllyel függesztették fel
a kizárólag szöveges rasszista üzeneteket közlőkkel szemben. Emiatt kutatók egy négyezer mondatból álló adatbázist hoztak létre, melynek szövegei emojikat is tartalmaznak, ezzel tanították újra az algoritmusoknak, milyen tartalom számít offenzívnek, és milyen nem. Ennek alapján már könnyebbé vált a nem megfelelő tartalmak szűrése.
A kutatók faji, nemi, nemi identitás alapú, szexuális, vallási és fogyatékosságon alapuló abúzust vizsgáltak, illetve a hangulatjelek eltérő módokon történő használatát is vizsgálták. Teszteltek például olyan szövegeket, amelyekben egy szimbólumhoz - például a melegekre utaló szivárványhoz - gyűlölködő üzenet társult.
A Perspective API, egy Google által támogatott projekt, amely a gyűlöletbeszéd azonosítására szolgáló szoftvert kínál,
14 százalékban volt hatékony a gyűlölködő megjegyzések felismerésében
az adatbázisban. Ezt az eszközt széles körben használják, és jelenleg naponta több mint 500 millió kérést dolgoz fel. A kutatók segítségével sikerült a pontosságot 30 százalékkal növelni a gyűlölködő és a semleges szövegek közti különbségtételt, és 80 százalékkal az egyes emojikkal összefüggő bántalmazást.
Ez a megoldás sem tökéletes ugyanakkor: nem mindegy ugyanis, milyen kép környezetében helyezkedik el a szöveg, az állandóan változó nyelvhasználat pedig tovább nehezíti mindezt. Problémát jelent az is, hogy az algoritmus nem tud különbséget tenni aközt, ha valaki saját közösségéről beszél, vagy ha másokról.