O surgimento da inteligência artificial (IA) generativa reforçou a necessidade de que Redações tenham diretrizes sobre o uso dessa tecnologia. Neste texto, vamos nos aprofundar em uma amostra de orientações que já foram compartilhadas. Na 1ª parte, descreveremos alguns dos temas e padrões mais e menos proeminentes que vemos. Na 2ª, com base na análise feita, vamos sugerir algumas indicações para a elaboração de diretrizes por parte de uma organização jornalística. Seja você um jornalista curioso ou um chefe de Redação, esperamos que este documento de “diretrizes para diretrizes” possa funcionar como uma visão geral de possíveis barreiras para a IA generativa nas Redações.
A seleção de diretrizes que analisamos abrange uma variedade de organizações, principalmente na Europa e nos EUA, com algumas de outras partes do mundo1. A amostra atual de 21 organizações pode ser encontrada aqui2; entre em contato por e-mail se sua empresa publicou diretrizes sobre IA generativa que devemos adicionar à nossa lista. Atualizaremos regularmente a lista de diretrizes e nossa análise, conforme cresce.
As orientações que analisamos variam em especificidade e, às vezes, são denominadas de forma diferente, como “nota do editor”, “protocolo”, “princípios” ou mesmo “carta deontológica”. O tom de algumas é restritivo quando usos específicos são proibidos. Outros documentos são mais exemplos de governança, onde as organizações jornalísticas estão se comprometendo com responsabilidades específicas para tornar o uso da inteligência artificial menos arriscado. Abaixo, discutiremos alguns desses abrangentes padrões com exemplos de diretrizes específicas.
OBSERVAÇÃO DE DIRETRIZES PUBLICADAS
SUPERVISÃO
As diretrizes mencionam a supervisão e a vinculam de forma deliberada à importância do envolvimento humano significativo e da supervisão no uso da inteligência artificial, inclusive por meio de edição adicional e verificação dos fatos antes da publicação. As empresas jornalísticas também rejeitam a ideia de substituir jornalistas por máquinas e destacam a importância do papel de tomada de decisão dos humanos ao usar ferramentas de IA generativa.
- Aftonbladet e VG, agências de notícias da Suécia e da Noruega, pertencem à corporação de mídia Schibsted. É possível observar algumas semelhanças claras nas diretrizes. As orientações da Aftonbladet dizem que “todo o material publicado foi revisado por um ser humano e está sob nossa autoridade de publicação”, enquanto lê-se nas da VG: “Todo uso de IA generativa deve ser aprovado manualmente antes da publicação”;
- a Reuters descreve a supervisão como “esforçar-se para um envolvimento humano significativo, desenvolver e implementar produtos de IA e de uso de dados para tratar as pessoas de maneira justa”;
- da mesma forma, o The Guardian diz que o uso de IA generativa requer supervisão humana, afirmando em suas diretrizes que precisa estar vinculada a um “benefício específico e à permissão explícita de um editor sênior”;
- a ANP, agência de notícias holandesa, tem orientações sobre supervisão humana semelhantes em suas diretrizes. Fala que é permitido usar a IA ou sistemas semelhantes para “apoiar a edição final, desde que um humano faça uma verificação final”. A publicação descreve esse processo como humano>máquina>humano, no qual a agência e a ação de tomar decisões são supervisionadas por um humano;
- a CBC, importante empresa jornalística do Canadá, fala que “nenhum produto de jornalismo da CBC será publicado ou transmitido sem o envolvimento e supervisão direta de humanos”.
- o De Volkskrant, jornal de renome na Holanda, diz que seu conteúdo é criado por editores, repórteres, fotógrafos e ilustradores reais e o conteúdo desenvolvido por IA não pode ser publicado sob o nome do De Volkskrant sem a aprovação de um humano. As diretrizes do De Volkskrant estão em conformidade com o que a empresa de mídia suíça Heidi.News e o jornal francês Le Parisien seguem. Em termos gerais, eles declaram que nenhum conteúdo será publicado sem prévia supervisão humana;
- a Núcleo, agência de notícias nativa digital do Brasil, diz que nunca “publicará conteúdo de IA sem revisão humana em reportagens e notas no site” nem “usará IAs como editor final ou produtor de uma publicação”;
- o Ringier, grupo de imprensa da Suíça com publicações em 19 países, fala que “os resultados criados pelas ferramentas de IA sempre devem ser examinados de forma crítica e as informações devem ser checadas, verificadas e complementadas usando o julgamento e a experiência da própria empresa”.
- a DPA (Agência de Imprensa Alemã) descreve que a decisão final sobre o uso da inteligência artificial é feita por um ser humano. Eles afirmam: “Respeitamos a autonomia humana e a primazia das decisões humanas”;
- a DJV (sigla para Associação Alemã de Jornalistas) refere-se às ferramentas de IA como colegas. Afirma o seguinte: “Sob nenhuma circunstância o ‘colega de IA’ deve substituir os editores. Mesmo que o uso da inteligência artificial mude as tarefas ou as elimine completamente, isso não torna as pessoas na Redação supérfluas”;
- o Financial Times diz que seu jornalismo continuará a ser “apurado, escrito e editado por humanos que são os melhores em suas áreas”;
- a agência de notícias finlandesa STT vincula a supervisão à tomada de decisões: “Não deixe a IA decidir por você, mas sempre avalie você mesmo a utilidade das respostas”;
- a Insider, empresa norte-americana de mídia on-line, fala que seus jornalistas devem sempre verificar os fatos. Diz de forma específica: “Não plagie! Verifique sempre a originalidade. É provável que as melhores práticas da empresa para fazer isso evoluam, mas, por enquanto, no mínimo, tenha certeza de verificar todas as informações recebidas do ChatGPT por meio da pesquisa do Google e da pesquisa de plágio do Grammarly.” A empresa também pede aos editores que estimulem os repórteres a verificar os fatos. “É necessário intensificar a vigilância e tirar um tempo para perguntar como cada fato em cada reportagem foi descoberto pelo seu colega.”
TRANSPARÊNCIA
As menções à transparência estão muitas vezes ligadas ao requisito de que o conteúdo deve ser sinalizado de forma compreensível para o público. No entanto, muitas vezes não está claro nas diretrizes como essas menções à transparência se concretizarão na prática.
- Aftonbladet e VG afirmam que, nos raros casos em que publicam material criado por IA –tanto texto quanto imagens–, será claramente sinalizado que esse produto foi produzido por inteligência artificial. Lê-se nas diretrizes da VG: “o conteúdo desenvolvido por IA deve ser rotulado de forma clara e compreensível”. Da mesma forma, a Reuters declara que implementará práticas de IA “para tornar compreensível o uso de dados e IA em nossos produtos e serviços”.
- o The Guardian diz que, quando usar IA generativa, será “claros com seus leitores”;
- a CBC fala sobre não haver “surpresas” para seu público, afirmando que rotulará o conteúdo criado por inteligência artificial: “Não usaremos ou apresentaremos conteúdo feito por IA ao público sem divulgação completa” da informação. Declarações semelhantes podem ser encontradas nas diretrizes de ANP (sigla para Agência de Imprensa Holandesa), Mediahuis, RVDJ (sigla para Conselho de Mídia Belga), DPA (sigla para Agência de Imprensa Alemã) e DJV (sigla para Associação de Jornalistas Alemães): o conteúdo desenvolvido por IA precisa ser identificado de maneira clara.
- o grupo de mídia da Suíça Ringier descreve que sua regra geral é que o conteúdo desenvolvido via IA precisa ser rotulado. Curiosamente, esse requisito não é necessário “nos casos em que uma ferramenta de IA é usada apenas como um auxílio”, sugerindo uma abordagem diferente em relação à transparência quando a IA é usada como uma parte complementar dos fluxos de trabalho dos profissionais. Por sua vez, a STT diz que o uso de IA em reportagens deve sempre ser comunicado ao público: “Isso se aplica tanto a situações em que a tecnologia foi usada para ajudar a produzir notícias quanto a textos em que o material de origem foi criado por inteligência artificial”.
USOS BANIDO VS. PERMITIDOS
Usos proibidos e permitidos de IA generativa são frequentemente listados como formas de orientar as práticas, embora, às vezes, também sejam acompanhados de exceções. Para essas exceções, as condições de transparência, responsabilidade e prestação de contas são explicitadas nas diretrizes. Também é dada muita atenção ao caso de uso de imagens criadas por inteligência artificial.
- a Wired diz que não publica reportagens com texto feito por IA, exceto quando o material obtido via inteligência artificial é o ponto principal da matéria. Também fala que “não publicará texto editado por IA”, assim como “não usará imagens desenvolvidas por IA em vez de fotografias de banco de imagens”. A lógica por trás disso é que a edição está inerentemente ligada à determinação do que é relevante, original e divertido. Apesar do tom restritivo das diretrizes, a Wired afirma que pode tentar usar a IA para tarefas do processo jornalístico, como sugerir manchetes ou fornecer ideias ou textos para postagens curtas nas redes sociais;
- a Núcleo lista alguns usos permitidos da IA generativa, como resumo de textos para “postagens alternativas em redes sociais” e como ferramenta de pesquisa de “assuntos e temas”;
- os jornalistas da Aftonbladet e da VG, por exemplo, podem “usar a tecnologia da IA em seu trabalho para produzir ilustrações, gráficos, modelos”. Entretanto, as diretrizes da VG proíbem a criação de imagens fotorrealistas, pois “o conteúdo feito por IA nunca deve prejudicar a credibilidade da fotografia jornalística”;
- a Insider fala que seus jornalistas podem usar a IA generativa para criar “esboços de reportagens, manchetes com SEO, edição de texto, desenvolvimento de perguntas para entrevistas, explicação de conceitos e resumo de coberturas antigas”. No entanto, a empresa diz que não se deve usar a tecnologia para substituir o processo de escrita. Para o uso de imagens feitas por IA, destaca que precisa “ter mais discussões antes de decidir se e como usá-las”;
- o HKFP (sigla para Hong Kong Free Press), jornal em inglês de Hong Kong, está restringindo todo o uso de IA generativa para qualquer redação de notícias, criação de imagem ou verificação de fatos, já que “poucas ferramentas de IA incluem informações adequadas de origem ou atribuição”. Curiosamente, o HKFP diz que ser possível usar ferramentas de IA aprovadas internamente “para verificação gramatical/ortográfica, para reformular/resumir o texto existente escrito por nossa equipe e para auxiliar com traduções, transcrições ou para pesquisa”. De forma similar, o De Volkskrant, jornal da Holanda, fala que seus editores não publicam trabalhos jornalísticos feitos por inteligência artificial;
- a organização de notícias suíça Heidi.News declara que só “usará imagens criadas por IA para fins ilustrativos, não para fins informativos, para não confundir eventos do mundo real”. Acrescenta que não vai publicar nenhuma imagem não-real que possa passar por fotografia, “salvo para fins educativos quando a imagem em questão já for pública”;
- o jornal francês Le Parisien diz que se reserva o direito de usar a inteligência artificial para a criação de texto e imagens com fins ilustrativos. Vincula o uso excepcional de IA generativa à necessidade de transparência: “Vamos garantir que a origem seja explicitamente declarada para o leitor”. Além disso, descreve o uso da IA como um enriquecimento. “Os jornalistas podem usar essas ferramentas como se fossem um mecanismo de busca, mas devem sempre retornar às suas próprias fontes para garantir a origem de suas informações.”;
- o Financial Times diz que não publicará imagens fotorrealistas feitas por IA, mas explorará o uso de Realidade Aumentada desenvolvida pela inteligência artificial (infográficos, diagramas, fotos) e, quando o fizer, deixará isso claro para o leitor;
- a agência de notícias finlandesa STT relaciona as suas proibições de uso da IA generativa às limitações da tecnologia. “A STT não usa IA para mineração de dados. As fontes usadas pela IA costumam ser obscuras, o que torna seu uso no trabalho editorial problemático”. A empresa também afirma que a confiabilidade das fontes e a verificação das informações continuam sendo vitais.
RESPONSABILIZAÇÃO E RESPONSABILIDADE
- a Aftonbladet diz que ser responsável “por tudo o que publica no site, incluindo material que é produzido usando ou se baseado em IA ou outra tecnologia” e está sob sua autoridade de publicação;
- a Reuters fala que “implementará e manterá medidas de responsabilidade apropriadas para nosso uso de dados e nossos produtos e serviços de IA”;
- a DPA afirma que só usará inteligência artificial “que seja tecnicamente robusta e segura para minimizar os riscos de erro e uso indevido”;
- o Le Parisien declara que quer se proteger contra “qualquer risco de erro ou violação de direitos autorais, mas também apoiar o trabalho de artistas, fotógrafos e ilustradores”;
- a DJV destaca que as organizações de notícias são responsáveis por seu conteúdo e que os departamentos editoriais devem estabelecer processos regulamentados de aceitação e aprovação de conteúdo jornalístico quando a IA estiver envolvida;
- o Financial Times diz ser sua convicção de que “sua missão de produzir jornalismo do mais alto padrão é ainda mais importante nesta era de rápida inovação tecnológica”. O jornal diz também: “O FT tem uma responsabilidade maior de ser transparente, relatar os fatos e buscar a verdade”.
- a Insider declara que seu público deve confiar neles para serem responsáveis pela precisão, imparcialidade, originalidade e qualidade de cada reportagem. Afirma que os jornalistas são encarregados pela precisão, imparcialidade, originalidade e qualidade de cada palavra em seus textos.
PRIVACIDADE E CONFIDENCIALIDADE
Privacidade e confidencialidade são frequentemente mencionadas em termos de proteção de fonte e cuidado ao fornecer informações confidenciais para plataformas externas. Além disso, as diretrizes destacam ser preciso ter cuidado ao usar conteúdo confidencial ou não publicado como entrada para ferramentas generativas de IA.
- a Aftonbladet escreve que deve-se “salvaguardar a proteção da fonte e não alimentar plataformas externas como o ChatGPT com informações confidenciais ou protegidas”. A orientação é refletida em termos ligeiramente diferentes pela VG: “Os jornalistas devem inicialmente compartilhar apenas material que foi aprovado para publicação imediata nas plataformas da VG com serviços de IA”;
- a Reuters informa que “priorizará a segurança e a privacidade em nosso uso de dados e em todo o design, desenvolvimento e implantação de nossos dados e produtos e serviços de IA”;
- a CBC diz que não colocará conteúdo confidencial ou não publicado em ferramentas generativas de IA “por qualquer motivo”;
- a Mediahuis fala que devem cumprir as leis de privacidade e, quando necessário, obter o consentimento do usuário antes de usar informações pessoais;
- o Ringier, grupo de mídia da Suíça, declara que seus funcionários “não têm permissão para inserir informações confidenciais, segredos comerciais ou dados pessoais de fontes jornalísticas, funcionários, clientes ou parceiros de negócios ou outras pessoas físicas em uma ferramenta de IA”. Sobre o desenvolvimento de código, as diretrizes de Ringier descrevem que esse código só pode ser inserido em sistemas generativos de IA quando “não constituem um segredo comercial nem pertencem a terceiros”.
Curiosamente, a maioria das diretrizes que analisamos não distingue entre serviços de IA generativa (por exemplo, OpenAI) e desenvolvimento e uso de um sistema de inteligência artificial generativa hospedado em computadores operados pela própria organização, como pode ser o caso de modelos de código aberto.
É importante observar, no entanto, que os riscos de privacidade e confidencialidade estão mais relacionados ao uso de serviços de IA generativa hospedados por outras organizações do que ao uso da própria inteligência artifical generativa.
EXPERIMENTAÇÃO CUIDADOSA
As menções sobre cautela na experimentação presentes nas diretrizes geralmente estão associadas a curiosidade e crítica, ao mesmo tempo em que destacam o potencial de inovação. Também há ênfase na verificação da veracidade dos resultados obtidos via IA, pois há um foco em reconhecer os riscos de desinformação e a “corrupção da verdade”.
- a principal regra da VG é que seus jornalistas devem tratar “o uso de texto, vídeo, imagens, som e outros conteúdos criados com a ajuda de IA (IA generativa) da mesma forma que outras fontes de informação; com curiosidade aberta e com cautela”;
- a CBC diz que nunca confiará apenas na pesquisa feita por IA em seu jornalismo: “Sempre usamos várias fontes para confirmar os fatos”;
- a ANP fala que todo integrante de sua equipe editorial deve olhar para a IA e sistemas relacionados “cheios de admiração, inquisitivos, críticos e abertos a desenvolvimentos”. Acrescenta que continua a buscar ativamente inovações com uma mente aberta;
- a STT, agência de notícias finlandesa, declara que os jornalistas devem explorar a IA quando tiverem a chance. Foi um dos primeiros veículos de mídia a começar a experimentar a IA generativa na forma de modelos de linguagem. Declara que a experimentação continua sendo vital para descobrir as possibilidades e limitações desses modelos;
- o jornal britânico The Financial Times diz que adotará a IA para fornecer serviços para leitores e clientes. Curiosamente, afirmam que é necessário para o FT que seja estabelecida uma equipe na Redação que possa experimentar a inteligência artificial de forma responsável. Também acrescenta que “toda tecnologia abre novas e excitantes fronteiras que devem ser exploradas com responsabilidade. Mas, como a história recente mostrou, a empolgação deve ser acompanhada de cautela quanto ao risco de desinformação e de corrupção da verdade”. Por fim, o FT fala que toda a experimentação com IA será registrada em um documento interno, incluindo, na medida do possível, o uso de provedores terceirizados que possam usar a ferramenta.
INTENÇÃO ESTRATÉGICA DE USO
Em vários casos, os documentos de diretrizes também expressam os objetivos estratégicos da organização na implantação de IA generativa. As motivações mencionadas incluíam o desejo de aumentar a originalidade, a qualidade e até a velocidade, ao mesmo tempo que, às vezes, refletiam o desejo de não substituir os jornalistas e defender valores fundamentais como independência/imparcialidade.
- o Financial Times diz que a IA tem o potencial de “aumentar sua produtividade e liberar o tempo dos repórteres e editores para se concentrar na criação e apuração de conteúdo original”;
- o The Guardian afirma que também procurará usar ferramentas de IA generativas editorialmente apenas quando contribuir para a criação e distribuição de jornalismo original. Além disso, eles dizem que, quando usarem IA generativa, se concentrarão em “situações em que se pode melhorar a qualidade do nosso trabalho”;
- a corporação de notícias belga Mediahuis fala que a IA deve aprimorar a atividade jornalística. Segundo eles, o objetivo é “melhorar a qualidade do nosso jornalismo para o nosso público”;
- o Insider fala que seus jornalistas podem, e até devem, usar IA para melhorar o trabalho, mas diz que o profissional continua sendo “responsável” pelos leitores e telespectadores;
- a ANP, a Agência de Imprensa Holandesa, declara querer permanecer imparcial e independente e que deve ser cautelosa com o uso de IA generativa;
- a DPA, a Agência de Imprensa Alemã, diz usar inteligência artificial para diversos fins e que está aberta ao aumento do uso da tecnologia. Eles acrescentam que a IA os ajudará a tornar seu trabalho melhor e mais rápido.
- o holandês De Volkskrant vê a inteligência artificial como uma ferramenta, “nunca como um sistema que pode substituir o trabalho de um jornalista”. O sentimento de não pretender substituir jornalistas por máquinas é ecoado por Heidi.News e Le Parisien. A Heidi.News, organização de notícias suíça, fala que os sistemas de IA devem ser considerados como ferramentas e, no esforço pela objetividade, seus jornalistas “não devem ver essas ferramentas como fontes de informação”.
TREINAMENTO
O treinamento raramente é mencionado nas diretrizes. Quando é, as aulas estão principalmente vinculadas à mitigação dos riscos da IA generativa e à responsabilidade e transparência com o público.
- a Mediahuis diz que treinamento e qualificação devem ser estabelecidos para os responsáveis pelas decisões que envolvem a inteligência artificial. Vincula ao desenvolvimento de linhas claras de responsabilidade pelo desenvolvimento e uso da inteligência artificial;
- a DJV, a Associação Alemã de Jornalistas, declara que o uso da inteligência artificial deve se tornar parte integrante da formação e aperfeiçoamento dos jornalistas. Pede às empresas de mídia que criem treinamento apropriado que inclua o uso indevido da IA.
- o jornal britânico The Financial Times afirma que fornecerá treinamento, via masterclasses (aulas dadas por um especialista), para seus jornalistas sobre o uso de IA generativa em reportagens.
VIÉS
- o The Guardian lida de forma explícita com viés apresentado por ferramentas de IA que produzem conteúdo e afirma que “se protegerão contra os perigos do viés embutido nas ferramentas generativas e em plataformas subjacentes”;
- a Mediahuis diz que seus jornalistas devem ficar atentos aos vieses nos sistemas de IA e devem trabalhar para resolvê-los;
- o Ringier fala que as ferramentas usadas devem ser sempre “justas, imparciais e não discriminatórias”.
ADAPTABILIDADE DAS DIRETRIZES
Várias das diretrizes refletiram humildade diante de mudanças rápidas e chamaram a atenção para a importância de adaptar as orientações ao longo do tempo e à medida que a compreensão dos riscos evolui.
- A agência de notícias brasileira Núcleo diz que sua política de IA generativa está “em constante evolução e pode ser atualizada de tempos em tempos”. O mesmo tipo de declaração pode ser encontrado nas diretrizes de Aftonbladet e VG. A Wired escreve que a inteligência artificial se desenvolverá, o que “pode modificar nossa perspectiva ao longo do tempo e reconheceremos quaisquer alterações neste post”. De acordo com uma nota do editor na parte inferior do documento de diretrizes, o texto já foi atualizado uma vez;
- a CBC fala que informou a seus jornalistas que as orientações são “preliminares e sujeitas a alterações à medida que a tecnologia e as melhores práticas do setor evoluem”;
- o De Volkskrant diz acompanhar os desenvolvimentos com interesse crítico e que o protocolo será adaptado nos pontos necessários. Da mesma forma, o Ringier, grupo de imprensa da Suíça, afirma que suas diretrizes serão continuamente revisadas nos próximos meses e serão ajustadas, se preciso.
TÓPICOS MENOS MENCIONADOS NAS DIRETRIZES
No geral, há alguns temas que não são tão proeminentes nas diretrizes.
A conformidade legal, bem como a personalização, a qualidade dos dados, o feedback do usuário e a integração da IA generativa na cadeia de produção raramente são mencionadas.
CADEIA DE SUPRIMENTOS
A cadeia de suprimentos de IA compreende a rede de fornecedores de sistemas de inteligência artificial, como modelos de terceiros, colaboradores, provedores de dados e de anotações, etc.
A DJV, Associação Alemã de Jornalistas, fala sobre a necessidade de precisão quando se trata do tratamento de dados. Diz o seguinte: “A coleta, preparação e processamento de dados devem atender a altos padrões qualitativos. Incompletude, distorções e outros erros no material de dados devem ser corrigidos sem demora”. Curiosamente, a DJV convida as empresas de mídia a construir seus próprios bancos de dados baseados em valor. Ainda apoia projetos de dados abertos por autoridades públicas e instituições governamentais. Afirma ser desejável uma maior independência dos provedores comerciais de grande tecnologia.
A Reuters é uma das poucas organizações de notícias que menciona colaborações governamentais e declara que “se esforçará para fazer parceria com indivíduos e organizações que compartilham abordagens éticas semelhantes às nossas em relação ao uso de dados, conteúdo e IA”.
CONFORMIDADE LEGAL
A DPA, a Agência de Imprensa Alemã, diz que só usa IA que esteja em conformidade com a lei e os requisitos legais aplicáveis e que atenda aos seus princípios éticos, como autonomia humana, justiça e valores democráticos. A Associação Alemã de Jornalistas pede aos legisladores que assegurem que o aviso de que um conteúdo foi criado por inteligência artificial se torne obrigatório. Solicita que tais obrigações de rotulagem sejam estabelecidas na lei.
PERSONALIZAÇÃO
A DJV afirma que a personalização por meio de IA deve ser sempre realizada de maneira responsável e equilibrada. Acrescenta que os usuários devem ter “a opção de alterar os critérios de seleção e/ou desativar completamente a distribuição personalizada”.
FEEDBACK DO USUÁRIO
A Mediahuis diz encorajar os leitores a dar feedback e permite que revisem seus dados. Isso reflete um compromisso com a transparência, responsabilidade e uma mentalidade centrada no cliente em um cenário de consumo de notícias em evolução.
ALGUMAS DIRETRIZES PARA DIRETRIZES
Com base em nossas observações acima, oferecemos aqui algumas sugestões para jornalistas e empresas jornalísticas que pensem em desenvolver suas próprias diretrizes. Ao revisar as orientações e códigos éticos existentes, adotando uma abordagem de avaliação de risco e aproveitando diversas perspectivas dentro da organização, acreditamos que as empresas podem melhorar a qualidade e a utilidade de suas instruções sobre a IA generativas.
REVISE AS DIRETRIZES E CÓDIGOS ÉTICOS EXISTENTES
Vários dos temas que encontramos em nossa análise, incluindo coisas como responsabilidade, transparência, privacidade e assim por diante, refletem valores bem estabelecidos e princípios éticos na prática jornalística. Portanto, ao elaborar ou atualizar diretrizes à luz da IA generativa, achamos que seria valioso revisar os códigos de conduta e os princípios jornalísticos existentes como base para pensar como e se esses princípios podem ser respeitados diante das mudanças estimuladas pela inteligência artificial generativa. Por exemplo, embora a ideia de independência apareça algumas vezes nas diretrizes que analisamos, não foi tão proeminente quanto se poderia esperar, dada a sua centralidade, por exemplo, em códigos de ética como o dos SPJ (sigla para Sociedade dos Jornalistas Profissionais). Como o uso de IA generativa pode incorporar e refletir totalmente um compromisso normativo com a independência jornalística?
Enfatizamos que o surgimento da IA generativa pode resultar em novos desafios para as empresas jornalísticas, mas isso não deve implicar que a elaboração de diretrizes deva começar do zero. Sugerimos que as organizações analisem esses códigos de conduta e os comparem –um por um– com o uso potencial de IA generativa e os riscos que podem representar. Ao trabalhar sistematicamente com os valores e princípios centrais do jornalismo, deve se sugerir estratégias e táticas de como usar a IA generativa de maneira consistente com as normas estabelecidas.
ADOTE UMA ABORDAGEM DE AVALIAÇÃO DE RISCO
As empresas jornalísticas podem se beneficiar da adoção de um plano sistemático de avaliação de risco no desenvolvimento de diretrizes. Essa abordagem desenvolvida pelo NIST pode, por exemplo, ajudar a mapear, medir e gerenciar riscos, oferecendo maneiras de desenvolver políticas de forma eficiente para mitigar as ameaças identificadas. Quais são os diferentes riscos do uso da IA generativa, como podem ser medidos e rastreados e como podem ser gerenciados com relação aos valores e objetivos existentes que uma organização jornalística tem?
Por exemplo, as práticas jornalísticas tradicionais enfatizam a importância de confiar em fontes e garantir a precisão das informações. No entanto, a IA generativa introduz um nível de incerteza em relação à origem e confiabilidade do conteúdo adquirido durante a reportagem. À luz da inteligência artificial generativa, essa mitigação de risco poderia considerar como verificar a veracidade dos documentos que estão sendo compartilhados como ponto de partida. Os jornalistas poderiam navegar nessa incerteza implementando processos de verificação rigorosos e usando técnicas de corroboração e triangulação para validar o conteúdo desenvolvido pela inteligência artificial. Ao cruzar informações de diversas fontes, as Redações podem reduzir o risco de disseminar informações não verificadas ou falsas.
ESTABELECER UM GRUPO DIVERSO PARA ELABORAR DIRETRIZES
Embora a IA generativa também possa ser usada para produzir código de programação e, portanto, impactar todos os tipos de produtos jornalísticos, encontramos poucas diretrizes que distinguem como pode haver diferentes abordagens entre uso editorial e de produto (por exemplo, no desenvolvimento de software). Além disso, outras partes das organizações jornalísticas, como vendas e marketing, também podem se beneficiar do uso de IA generativa. É preciso ter diretrizes separadas?
Para cobrir todos os assuntos aqui, pensamos ser importante estabelecer um conjunto diversificado de partes interessadas em sua organização jornalística para discutir e definir o escopo adequado das orientações. Isso permitirá que as empresas reflitam sobre os riscos que podem surgir na redação e pode ajudar a determinar ameaças mais amplas para toda a empresa, que transcendem os fluxos de trabalho diários dos jornalistas.
Hannes Cools é pesquisador de pós-doutorado no Laboratório de IA, Mídia e Democracia em Amsterdã. Nick Diakopoulos é professor de jornalismo computacional na Northwestern University. Este artigo foi publicado originalmente no Generative AI in the Newsroom.
- Sobre a metodologia – Coletamos as diretrizes e traduzimos as que não estavam em inglês usando DeepL ou Google Tradutor. Depois de ter todas em um documento ao qual ambos temos acesso, adicionamos códigos abertos. Após ler todas as orientações, discutimos um esquema de codificação mais abrangente. Isso resultou em uma visão geral mais robusta dos códigos que foram usados como uma estrutura geral para escrever esta publicação;
- Sobre a seleção das diretrizes – Decidimos não incluir as diretrizes sobre IA que já foram publicadas pela Bayerischer Rundfunk na Alemanha e pela BBC no Reino Unido, pois queríamos analisar as diretrizes mais recentes que tratam especificamente da IA generativa. No entanto, reconhecemos o trabalho pioneiro que esses meios de comunicação fizeram ao abrir caminho para o uso de IA nas redações.
O Poder360 tem uma parceria com duas divisões da Fundação Nieman, de Harvard: o Nieman Journalism Lab e o Nieman Reports. O acordo consiste em traduzir para português os textos que o Nieman Journalism Lab e o Nieman Reports e publicar esse material no Poder360.
Por Hannes Cools e Nicholas Diakopoulos