Meios de comunicação social: Como poderiam ser regulamentados?

Vários países em todo o mundo estão a considerar regulamentar as redes sociais – mas como é que isso poderia parecer?

Um novo relatório apresentou uma parcela de ideias que os seus autores dizem poder pôr fim ao “caos informativo que representa uma ameaça vital para as democracias”.

Uma das suas sugestões é que as redes sociais deveriam ser obrigadas a divulgar detalhes dos seus algoritmos e funções centrais a investigadores de confiança, para que a tecnologia possa ser verificada.

Sugere também que se acrescente “fricção” à partilha em linha, para evitar a difusão desenfreada da desinformação.

O relatório foi publicado pelo Forum for Information and Democracy, que foi estabelecido para fazer recomendações não vinculativas a 38 países. Incluem a Austrália, Canadá, França, Alemanha, Índia, Coreia do Sul e o Reino Unido.

Entre os que contribuíram para o relatório estavam o denunciante da Cambridge Analytica Christopher Wylie, e o antigo investidor do Facebook Roger McNamee – um crítico de longa data da rede social.

O grupo de livre expressão Artigo 19 e grupos de direitos digitais, incluindo a Fundação Fronteira Electrónica, foram também consultados.

O que é que o relatório sugere?

Uma das recomendações centrais é a criação de um “código de construção legal”, que descreve os requisitos obrigatórios de segurança e qualidade para plataformas digitais.

“Se eu tivesse de produzir um aparelho de cozinha, teria de fazer mais testes de segurança e passar por mais procedimentos de conformidade para criar uma torradeira do que para criar o Facebook”, disse o Sr. Wylie à BBC.

Ele disse que as redes sociais deveriam ser obrigadas a ponderar todos os danos potenciais que poderiam ser causados pelas suas decisões de concepção e engenharia.

O relatório também sugere que as redes sociais devem mostrar uma correção a cada pessoa que foi exposta a informações erradas, se os verificadores de factos independentes identificarem uma história como falsa.

Outras sugestões incluem:
– Implementar “disjuntores” para que o conteúdo de novos vírus seja temporariamente impedido de se espalhar enquanto é verificado de facto;
– Forçar as redes sociais a divulgar no noticiário porque é que o conteúdo tem sido recomendado a um utilizador;

– Limitando a utilização de mensagens publicitárias com micro-direccionamento;
– Tornando ilegal excluir pessoas do conteúdo com base na raça ou religião, tal como esconder um anúncio de quarto vago de pessoas de cor;
– Proibição do uso dos chamados padrões escuros – interfaces de utilizador concebidas para confundir ou frustrar o utilizador, tais como dificultar a eliminação da sua conta.

Também incluiu algumas propostas que o Facebook, Twitter e YouTube já fazem voluntariamente, como por exemplo:
– Rotulagem das contas das organizações noticiosas controladas pelo Estado;
– Limitar o número de mensagens que podem ser reencaminhadas para grandes grupos, como faz o Facebook no WhatsApp.

As três empresas receberam uma cópia do relatório na quarta-feira e a BBC convidou- as a comentar.

O chefe da estratégia de políticas públicas do Twitter, Nick Pickles, afirmou: “O Twitter está empenhado em construir uma Internet mais segura e em melhorar a saúde da conversa pública. Apoiamos uma abordagem prospetiva da regulamentação que proteja a Internet aberta, a liberdade de expressão e a concorrência leal no sector da Internet”.

“A abertura e a transparência são fundamentais para a abordagem do Twitter, tal como corporizada pelo nosso API público, o nosso arquivo de operações de informação, o nosso compromisso com a escolha do utilizador, a nossa decisão de proibir a publicidade política e de rotular o conteúdo para fornecer mais contexto e informação, e as nossas divulgações no Relatório de Transparência do Twitter.

“No entanto, as empresas tecnológicas não são todas iguais, nem a tecnologia é a única parte do ecossistema dos meios de comunicação. É essencial assegurar uma resposta de toda a sociedade para enfrentar estas importantes questões”.

Numa entrevista à BBC News, o Sr. Wylie disse que as recomendações do relatório tinham sido concebidas para proteger a livre expressão dos indivíduos.

As seguintes foram editadas para maior brevidade e clareza.

Sempre que é proposta regulamentação dos meios de comunicação social, há preocupações sobre a asfixia da liberdade de expressão. As vossas propostas não representam um tal risco?

Na maior parte das democracias ocidentais, tem a liberdade de expressão. Mas a liberdade de expressão não é um direito que se possa alcançar. É livre de dizer o que quiser, dentro dos limites do discurso do ódio, da lei da calúnia e assim por diante. Mas não tem direito a que a sua voz seja artificialmente amplificada pela tecnologia.

Estas plataformas não são ambientes neutros. Algoritmos tomam decisões sobre o que as pessoas vêem ou não vêem. Nada neste relatório restringe a sua capacidade de dizer

o que deseja. Do que estamos a falar é da função da plataforma de amplificar artificialmente informação falsa e manipuladora em larga escala.

Quem define o que conta como desinformação?

Acho que isto se resume a algo bastante fundamental: acredita na verdade? Há algumas coisas objetivamente refutáveis que se espalham muito rapidamente no Facebook neste momento. Por exemplo, que o Covid não existe e que a vacina é realmente para controlar as mentes das pessoas. Todas estas são coisas que são manifestamente falsas, e pode provar isso.

As nossas instituições democráticas e o nosso discurso público são sustentados por uma suposição de que podemos pelo menos concordar em coisas que são verdadeiras. Os nossos debates podem ser sobre como respondemos ou que valores aplicamos a um determinado problema, mas temos pelo menos um entendimento comum de que existem certas coisas que são manifestamente verdadeiras.

Será que a regulamentação sufocaria o livre fluxo de ideias e o direito das pessoas a acreditarem no que quiserem?

Se assumíssemos a premissa de que as pessoas deveriam ter o direito legal de serem manipuladas e enganadas, não teríamos regras sobre fraude ou influência indevida. Há danos muito tangíveis que advêm da manipulação de pessoas. Nos Estados Unidos, a resposta da saúde pública ao Covid-19 tem sido inibida pela desinformação generalizada sobre a existência do vírus ou falsas alegações sobre diferentes tipos de tratamento que não funcionam.

Tem o direito de acreditar no que quer? Sim, é claro. Ninguém que eu conheça está a propor qualquer tipo de regulação mental ou mental.

Mas temos de nos concentrar na responsabilidade de uma plataforma. O Facebook, Twitter e YouTube criam algoritmos que promovem e realçam a informação. Esta é uma decisão de engenharia ativa.

Quando o resultado é uma resposta inibida da saúde pública a uma pandemia ou o minar da confiança nas nossas instituições democráticas, porque as pessoas estão a ser manipuladas com informação objetivamente falsa, tem de haver algum tipo de responsabilidade pelas plataformas.

Mas o Facebook diz que trabalha arduamente para combater a desinformação e não lucra com o discurso do ódio.

Uma companhia petrolífera diria: “Nós não lucramos com a poluição”. A poluição é um subproduto – e um subproduto nocivo. Independentemente de o Facebook lucrar ou não com o ódio, é um subproduto nocivo da conceção atual e existem danos sociais que provêm deste modelo de negócio.

Antes das eleições nos EUA, o Facebook e o Twitter definiram o que fariam se um candidato declarasse a vitória mais cedo ou contestasse o resultado. Vimos ambos aplicar etiquetas de contexto aos tweets do Presidente Donald Trump. Acha que eles estavam mais preparados para as eleições de 2020?

É evidente que o Facebook não tem realmente feito planeamento suficiente.
Vejam os grupos que estão a borbulhar todos os dias que estão a espalhar desinformação sobre “batota” nas eleições nos EUA e a promover todo o tipo de outras teorias conspiratórias sobre a campanha de Biden. Este foi um resultado previsível.

A forma como o Facebook aborda estes problemas é: vamos esperar e ver e descobrir um problema quando ele surgir. Todas as outras indústrias têm de ter normas mínimas de segurança e considerar os riscos que podem ser colocados às pessoas, através da atenuação e prevenção dos riscos.

Se regulasse as grandes redes sociais, empurraria mais pessoas para marginalizar as redes sociais de “liberdade de expressão”?

Se tiver uma plataforma que tenha o ponto de venda único de “permitir-lhe-emos promover o discurso do ódio, permitir-lhe-emos enganar e manipular as pessoas”, não creio que o modelo de negócio deva ser permitido na sua forma atual. As plataformas que monetizam o envolvimento dos utilizadores têm o dever para com os seus utilizadores de fazer pelo menos um esforço mínimo para evitar danos claramente identificados. Penso que é ridículo que haja mais considerações de segurança para criar uma torradeira na cozinha de alguém, do que para plataformas que tenham tido um impacto tão manifesto na nossa resposta de saúde pública e instituições democráticas.

E sobre outras questões, tais como a forma como as imagens “perfeitas” no Instagram podem afetar a saúde mental e a imagem corporal?

Este é um produto de uma plataforma que lhe está a fazer recomendações. Estes algoritmos funcionam pegando naquilo com que se compromete e depois mostram-lhe cada vez mais isso.

No relatório, falamos de um “período de reflexão”. Poderá exigir algoritmos que tenham um desencadeamento que resulte num período de reflexão para um determinado tipo de conteúdo.

Se tiver acabado de passar a última semana a mostrar-lhe um anúncio de body-building, poderá então aguardar pelas próximas duas semanas. Se quiser promover a musculação, pode.

Mas da perspetiva do utilizador, eles não devem ser constantemente bombardeados com um tema singular.

Fonte: bbc.com

Texto: Maria Nobre

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s