Ferramentas de Inteligência Artificial (IA) e grandes modelos de linguagem (LLM) impactaram rapidamente vários setores, incluindo a pesquisa e publicação acadêmica. À medida que as tecnologias de IA avançam, também avançam o potencial e os desafios associados à sua aplicação. Estas diretrizes descrevem como as ferramentas e tecnologias de IA podem ser utilizadas para apoiar o processo de escrita de artigos publicados na African Human Mobility Review. O uso de tecnologias de IA na escrita acadêmica deve aderir aos princípios de integridade, transparência e confidencialidade, alinhando-se com práticas éticas de pesquisa e publicação que promovam a integridade científica. O uso de ferramentas de IA para práticas antiéticas, como plágio por IA e fabricação de dados, deve ser estritamente evitado.
A Política de IA da revista será atualizada regularmente para levar em conta novos desenvolvimentos nas melhores práticas de publicação, questões éticas e padrões acadêmicos. Essas revisões garantem que nossas diretrizes continuem sendo abrangentes e aplicáveis, de acordo com os requisitos em mudança da comunidade de pesquisa.
A AFRICAN HUMAN MOBILITY REVIEW (AHMR), como regra geral, segue as Diretrizes da ASSAf e da SciELO para o Uso de Ferramentas e Recursos de Inteligência Artificial (IA) na Comunicação de Pesquisa.
Autores
Os autores devem declarar o uso de ferramentas de IA Generativa em sua pesquisa e na preparação do manuscrito (isto é, análise de dados, revisão de literatura ou redação do manuscrit, etc.) na seção de metodologia. Não há necessidade de mencionar o uso de ferramentas de IA para fins de revisão e edição. O conteúdo gerado por ferramentas de IA deve ser citado e referenciado usando um formato geral para citação de software. Em todos os casos, as ferramentas de IA devem aderir aos princípios éticos estabelecidos nas diretrizes da revista para uso ético. A IA, Grandes Modelos de Linguagem (LLMs), como o ChatGPT, ou quaisquer tecnologias similares, não podem ser listados como autor ou coautor. Os autores são os únicos responsáveis por todo o conteúdo de seu manuscrito, incluindo a verificação de qualquer informação gerada por IA para garantir precisão e confiabilidade.
Editores
Os editores devem aderir aos padrões editoriais e às melhores práticas, protegendo a confidencialidade do trabalho de cada autor e tratando todos os autores com justiça, objetividade, honestidade e transparência. O uso de manuscritos em sistemas de IA generativa pode resultar em riscos relacionados à violação de dados e direitos de propriedade, confidencialidade e outras questões. Os editores estão, portanto, proibidos de carregar manuscritos não publicados em ferramentas de IA.
Revisores por Pares
Os revisores por pares desempenham um papel vital na manutenção dos padrões da publicação acadêmica e são confiados com manuscritos não publicados. Como tal, os revisores não devem carregar manuscritos não publicados em ferramentas de IA Generativa para proteger a confidencialidade do autor. Os revisores podem usar ferramentas de IA para apoiar o processo de revisão em áreas específicas, como resumo de manuscritos, identificação de lacunas na pesquisa, localização de literatura relacionada e detecção de questões éticas. No entanto, a decisão final na revisão por pares não pode ser automatizada e deve ser baseada no julgamento humano, pois a IA pode produzir conteúdo impreciso, incompleto e tendencioso. Os revisores serão sempre responsáveis por manter a integridade e a correção de suas revisões.