SIHMA

Recherche sur la migration humaine à travers l'Afrique.

Chargement, veuillez patienter...

Politique IA de AHMR

Les outils d'intelligence artificielle (IA) et de grands modèles de langage (LLM) ont rapidement impacté divers secteurs, y compris la recherche académique et la publication. À mesure que les technologies d'IA progressent, le potentiel et les défis associés à leur application évoluent également. Ces directives décrivent comment les outils et technologies d'IA peuvent être utilisés pour soutenir le processus de rédaction des articles publiés dans l'African Human Mobility Review. L'utilisation des technologies d'IA dans la rédaction académique doit respecter les principes d'intégrité, de transparence et de confidentialité, en s'alignant sur les pratiques éthiques de recherche et de publication qui promeuvent l'intégrité scientifique. L'utilisation d'outils d'IA pour des pratiques contraires à l'éthique, telles que le plagiat par IA et la fabrication de données, doit être strictement évitée.

La politique IA de la revue sera mise à jour régulièrement pour tenir compte des nouveaux développements en matière de meilleures pratiques de publication, de questions éthiques et de normes académiques. Ces révisions garantissent que nos directives continuent d'être complètes et applicables, conformément aux exigences changeantes de la communauté de recherche.

L'AFRICAN HUMAN MOBILITY REVIEW (AHMR), en règle générale, suit les directives de l'ASSAf et de SciELO pour l'utilisation des outils et ressources d'intelligence artificielle (IA) dans la communication de recherche.

Auteurs

Les auteurs doivent déclarer l'utilisation d'outils d'IA générative dans leur recherche et la préparation de leur manuscrit (c'est-à-dire l'analyse de données, la revue de littérature ou la rédaction du manuscrit, etc.) dans la section méthodologie. Il n'est pas nécessaire de mentionner l'utilisation d'outils d'IA à des fins de relecture et d'édition. Le contenu généré par des outils d'IA doit être cité et référencé en utilisant un format général pour la citation de logiciels. Dans tous les cas, les outils d'IA doivent respecter les principes éthiques énoncés dans les directives de la revue pour une utilisation éthique. L'IA, les grands modèles de langage (LLM), tels que ChatGPT, ou toute technologie similaire, ne peuvent être listés comme auteur ou co-auteur. Les auteurs sont seuls responsables de l'intégralité du contenu de leur manuscrit, y compris la vérification de toute information générée par l'IA pour en assurer l'exactitude et la fiabilité.

Rédacteurs

Les rédacteurs doivent respecter les normes éditoriales et les meilleures pratiques, en protégeant la confidentialité du travail de chaque auteur et en traitant tous les auteurs avec équité, objectivité, honnêteté et transparence. L'utilisation de manuscrits dans des systèmes d'IA générative peut entraîner des risques liés à la violation de données et de droits de propriété, à la confidentialité et à d'autres problèmes. Il est donc interdit aux rédacteurs de soumettre des manuscrits non publiés à des outils d'IA.

Évaluateurs

Les évaluateurs jouent un rôle vital dans le maintien des normes de l'édition académique et se voient confier des manuscrits non publiés. À ce titre, les évaluateurs ne doivent pas soumettre de manuscrits non publiés à des outils d'IA générative afin de protéger la confidentialité des auteurs. Les évaluateurs peuvent utiliser des outils d'IA pour soutenir le processus d'évaluation dans des domaines spécifiques tels que le résumé de manuscrits, l'identification de lacunes dans la recherche, la recherche de littérature connexe et la détection de problèmes éthiques. Cependant, la décision finale de l'évaluation par les pairs ne peut être automatisée et doit être fondée sur l'humain, car l'IA peut produire un contenu inexact, incomplet et biaisé. Les évaluateurs seront toujours responsables du maintien de l'intégrité et de l'exactitude de leurs évaluations.