Principal torneio de tênis da América Latina, o Rio Open conta com as participações de algumas das grandes estrelas da modalidade. Mas, ao mesmo tempo em que mobilizam legiões imensas de fãs, esportistas famosos também costumam atrair uma quantidade imensa de “haters”, especialmente nas redes sociais, que se tornaram terrenos férteis para a profusão do discurso de ódio.
Segundo um estudo divulgado pela Hootsuite e We Are Social, a população mundial permanece, em média, em torno de 3 horas e 41 minutos por dia nas redes sociais.
Neste ano, esse tema ganhou ainda mais relevância com o retorno de Donald Trump à presidência dos Estados Unidos. Em nome de uma alegada defesa da liberdade irrestrita de expressão, gigantes de tecnologia donas de algumas das principais redes sociais do planeta resolveram afrouxar seus mecanismos de moderação contra mensagens de ódio, que podem impactar seriamente na autoestima dos usuários atingidos.
Essa nova postura das plataformas tende a agravar um problema que já é sério. No Brasil, quase 30% da população relata que já sofreu ou conhece alguém que sofreu cyberbullying, segundo dados de um estudo recente realizado pelo Instituto Ipsos.
Atletas profissionais, convém lembrar, são seres humanos e não estão acima das paixões e medos que movem nossa espécie. Eles podem ter sua saúde mental afetada pelos ataques virtuais.
Pensando nessa questão, a Associação dos Tenistas Profissionais (ATP) firmou uma parceria global com a Sportradar, para a utilização da tecnologia SafeSport em suas competições.
Essa tecnologia integra uma moderação nos canais sociais dos atletas por meio de inteligência artificial (IA), educação e investigação em um mesmo serviço que busca proteger os competidores.
Como funciona o sistema?
Em entrevista à Máquina do Esporte, Sérgio Floris, diretor-executivo da Sportradar no Brasil, explicou como funciona a tecnologia SafeSport, que é adotada também no Rio Open.
“Acreditamos que a tecnologia pode ser uma aliada fundamental na proteção da saúde mental dos atletas, especialmente em torneios de grande visibilidade como o Rio Open. Ao integrar IA e investigação, conseguimos identificar e ocultar automaticamente comentários abusivos em tempo real, criando um ambiente digital mais seguro para os jogadores. Essa abordagem minimiza a exposição dos atletas a ataques virtuais, permitindo que se concentrem no desempenho dentro de quadra”, disse o executivo.
Na avaliação dele, a proteção digital pode ter um impacto direto na performance dos atletas, que já enfrentam pressão intensa durante as competições.
“A saúde mental e o foco são essenciais para um bom desempenho, e a exposição ao cyberbullying pode afetar a confiança e a motivação, prejudicando a concentração em momentos decisivos. A pressão adicional gerada por essas interações digitais pode levar a níveis elevados de estresse e ansiedade”, ponderou.
Segundo ele, a ideia do SafeSport é criar uma camada extra de proteção, que não só ajude os atletas a se manterem psicologicamente fortes, mas que também contribua para um ambiente digital mais saudável e livre de abusos.
Linha tênue
Floris reconhece, por outro lado, que as críticas fazem parte da realidade vivida pelos atletas profissionais. No entanto, lembra que a linha que separa um comentário construtivo de um ataque virtual pode ser tênue.
“Sabemos que críticas construtivas fazem parte do processo de evolução dos atletas e são essenciais para o debate saudável sobre o esporte. Por isso, a nossa abordagem é focada em criar um equilíbrio: protegemos os atletas de ataques abusivos, mas permitimos que a liberdade de expressão, dentro dos limites do respeito, seja mantida”, explicou.
Além da tecnologia com IA, o sistema utilizado no Rio Open conta com uma equipe dedicada de analistas que investigam ameaças mais graves e atuam diretamente para responsabilizar os autores desses ataques.
“Nossa tecnologia é projetada para detectar automaticamente e em tempo real não apenas as palavras ofensivas, mas também o contexto e a intensidade da interação. Isso nos permite distinguir entre um comentário tóxico e uma crítica legítima. Por exemplo, quando identificamos um ataque direto à integridade física ou emocional do atleta, nossa ferramenta atua rapidamente para ocultar ou sinalizar esse conteúdo, minimizando os impactos negativos”, disse.
Desafios
O executivo admite que a nova política de moderação adotada pelas “big techs” nas redes sociais representa um desafio adicional para esse trabalho realizado junto à ATP. Porém, acredita que o sistema está pronto para lidar com essa realidade.
“Apesar da flexibilização dos mecanismos de moderação poder resultar em um volume maior de conteúdo, nossa plataforma está constantemente evoluindo. Incorporamos métodos inovadores para identificar e bloquear ataques virtuais com ainda mais precisão, assegurando que as interações on-line sejam seguras para os atletas”, explicou.
Segundo Floris, mesmo com os avanços tecnológicos cada vez mais recorrentes, o trabalho humano continua sendo essencial para o sucesso do sistema de proteção aos atletas.
“Nossa equipe é composta por especialistas em ciberssegurança e comportamento on-line, que investigam as ameaças, identificam os responsáveis e tomam as medidas necessárias para garantir a segurança dos atletas. Esse trabalho humano é fundamental, pois envolve a tomada de decisões que a tecnologia, por si só, não conseguiria realizar, como avaliar o contexto de um comentário ou detectar ameaças que exigem uma abordagem mais personalizada”, finalizou.