Jornalismo automatizado: inteligência artificial na escrita de notícias

Tipo de documento:Artigo acadêmico

Área de estudo:Tecnologia da informação

Documento 1

Modernos produtos NLG são comercializados principalmente como ferramentas corporativas para tornar os insights de "big data" acessíveis a pessoas sem conhecimento especializado, no entanto, essas tecnologias também são cada vez mais usadas para automatizar certas tarefas rotineiras em organizações de notícias, uma prática conhecida como "jornalismo automatizado” (GRAEFE, 2016). Pesquisas anteriores sobre jornalismo automatizado classificaram como uma forma de jornalismo quantitativo, às vezes também chamado de "jornalismo algorítmico" ou "jornalismo robótico" (AZZELLINI e PESCHANSKI, 2018). Apesar das várias preocupações reveladas artigos publicados, o uso do jornalismo automatizado nas redações tem aumentado de forma constante, motivado uma necessidade urgente de modelos de negócios sustentáveis ​​para organizações de notícias e por intensa pressão econômica para aumentar a produtividade na produção de conteúdo jornalístico (CARREIRA e SQUIRRA, 2017).

Os primeiros exemplos do uso da tecnologia NLG para automatizar o jornalismo estão restritos a textos relativamente curtos em domínios limitados, mas são impressionantes em termos de qualidade e quantidade (LINDÉN, 2017). O texto produzido é geralmente indistinguível do texto escrito por escritores humanos e o número de documentos de texto gerados substancialmente excede o que é possível a partir de processos editoriais manuais. Essas plataformas permitem a construção de modelos de geração de linguagem - arranjos complexos de lógica e fragmentos de texto associados. Cada modelo é projetado para operar com um modelo de dados específico e pode ser usado pela plataforma para montar blocos de texto escrito a partir de seus fragmentos de texto com base em qualquer conjunto de dados com campos formatados de acordo com esse modelo de dados.

Esses modelos são essencialmente árvores hierárquicas discretas de lógica condicional (ou seja, " if-then-else") que fornecem um procedimento de montagem de texto para todas as eventualidades que pode ocorrer em qualquer conjunto de dados formatado de acordo com o modelo de dados designado. Por exemplo: Se o campo de dados 1 é X, em seguida, escreva "this", “else if”, se o campo de dados 1 for Y, escreva "that". Embora essa técnica pareça ser relativamente simples, implementá-la de uma maneira que possa ser usada praticamente em um ambiente editorial de produção não é trivial, porque a complexidade do modelo aumenta muito rapidamente para aplicativos mais úteis (MAGALHÃES, 2017). Um número cada vez maior de entradas na Wikipedia está sendo criado por softwares automatizados, ou bots, que extraem informações cruas de bancos de dados e, em seguida, usam algoritmos para gerar texto em modelos padronizados.

Apenas três minutos depois que um terremoto atingiu a Califórnia, o Los Angeles Times divulgou a história em seu site. O pequeno artigo parecia bastante comum. Cobriu todos os detalhes principais, quando o terremoto atingiu, sua magnitude e até onde se espalhou. O único sinal de algo incomum foi a frase final: "Este post foi criado por um algoritmo escrito pelo autor. Mas o Times está experimentando uma solução de inteligência artificial que poderia transformar a moderação de comentários e estender o recurso de comentários para mais artigos, permitindo economias de custo para o NYT e uma conversa mais envolvente para seus leitores. A ferramenta Perspective API , desenvolvida pelo Jigsaw (parte da empresa-mãe do Google, Alphabet) organiza os comentários do leitor de forma interativa, para que os espectadores possam ver rapidamente quais deles podem ser considerados "tóxicos" e quais podem ser mais esclarecedores.

Os espectadores podem ler comentários deslizando uma barra na parte superior da página da esquerda para a direita. Quanto mais próximo o bar fica à direita, mais tóxicos ficam os comentários. É uma ótima maneira de os usuários lerem e interagirem com comentários nos quais estão interessados, evitando os mais agressivos. Seu bot analisa o e-mail dos dados, coloca-os em um modelo pré-escrito e envia o artigo para o sistema de gerenciamento de conteúdo do jornal. Ele até envia um lembrete por e-mail para os editores verem. Outras abordagens são um pouco mais complexas. A Automated Insights, baseada na Carolina do Norte, constrói repórteres de robôs que analisam dados de tendências interessantes. Eles se concentram em histórias personalizadas que são de interesse apenas para um público pequeno - como recapitulações de jogos de futebol fantasia no Yahoo, ou resumos de estatísticas recentes da web.

Editores respeitados, como a Associated Press, rapidamente entenderam isso e, desde 2014, vêm utilizando os serviços da Automated Insights, os criadores do "Word Smith", uma plataforma de robôs capaz de converter dados de relatórios em notícias. O LA Times, um jornal diário pago publicado em Los Angeles, na Califórnia, emprega um robô que coleta informações sobre todos os homicídios cometidos na cidade de Los Angeles, o site criado pela máquina chamada “Homicide Report” utiliza um robô-repórter com a capacidade de inclua em seus relatórios toneladas de dados que incluem: o gênero e a raça da vítima, a causa da morte, o envolvimento do oficial, a vizinhança e o ano da morte. Outros estabelecimentos como The Guardian, The Washington Post e Forbes também utilizam geradores automatizados de notícias fornecidos pela Narrative Science, uma startup sediada em Chicago, cujo cofundador Kristian Hammond, uma vez disse que dentro de 15 anos mais de 90% das notícias seriam escritas por um computador (GRAEFE, 2016).

No Brasil, de acordo com Monnerat 2018, um grupo de cientistas de dados trabalha no primeiro robô-jornalista do Brasil para reportar sobre projetos de leis na Câmara. A inovação tornou-se um fator chave no negócio de mídia. O jornalismo automatizado anuncia novas possibilidades para as organizações de notícias, poderia substituir ou aumentar algumas habilidades jornalísticas básicas, como precisão e velocidade, e reduzir a produção de custos. Os benefícios são vários, desde software automatizado que serve como uma mão extra nas redações para a tecnologia, ajudando a encontrar padrões e erros facilmente perdidos pela percepção humana. A automação também pode ajudar a expandir a cobertura, pois permite que os jornalistas coloquem e analisem grandes quantidades de dados.

De acordo com Magalhães 2017, um dos problemas com as histórias automatizadas é o fato de que vários fatores não podem ser programados. Notícias produzidas por uma máquina, extraídas de um conjunto de fluxos de dados isolados, pautam o pensamento crítico e podem enfatizar a confirmação de viés. Esse fato básico está na base da ideia central de “noticiabilidade”, os gerenciadores de notícias decidem o que é mais importante e atribuem recursos de acordo. O conteúdo é produzido e depois espremido nos espaços disponíveis para as notícias, o “buraco da notícia”, as manchetes. Esse processo de seleção baseia-se em recursos humanos e de capital, o número de repórteres disponíveis, a equipe de suporte capaz de produzir histórias acabadas e o tempo que as audiências têm para as mesmas (REITER, 2010).

O que o jornalismo automatizado faz é jogar fora esse equilíbrio. Desumanizando, não no sentido de alienação, mas no sentido mais mundano de transcender os limites dos humanos. Ainda de acordo com Freitas e Freitas 2018, não importa que tenha sido produzido por uma máquina, o editor terá que assumir a responsabilidade, porém aqui no Brasil este assunto ainda não teve muita importância entre nossos governantes. É preciso ter prudência quanto ao futuro do jornalismo automatizado, em vez de criar desdenhos ou reacionários. Maior eficiência pode liberar os repórteres de muitas tarefas, mas também pode distorcer o que é o jornalismo e o que os cidadãos querem que seja. REFERÊNCIAS AZZELLINI, Érica Camillo; PESCHANSKI, João Alexandre. O conceito de Jornalismo Computacional ante as potencialidades das narrativas estruturadas.

n. p. maio. Disponível em: < https://sistemas. uft. Acesso em 10 de mar. FREITAS, Paulo N. FREITAS, Pedro M. Inteligência Artificial e Regulação de algoritmos. Diálogos União Europeia e Brasil. com/ycgtguue>. Acesso em: 9 de mar. LINDÉN, Carl-Gustav. Algorithms for journalism: The future of news work. The Journal of Media Innovations 4. Disponível em: < - http://periodicos. ufpb. br/ojs2/index. php/tematica>. Acesso em 09 de mar.

161 R$ para obter acesso e baixar trabalho pronto

Apenas no StudyBank

Modelo original

Para download