Il me semble aussi important de voir "où" l'IA nous impacte et ce qu'on en fait.
Il y a des parties, c'est facile, et d'autres où ça pose plus de questions (sans que les réponses possibles soient bien satisfaisantes ou réalistes à mon goût).
Ce que liste Pulkomandy me semble une base, je reprends un peu :
- Usage de LLM pour générer du contenu "final" pour Khaganat : définitivement pas envisageable, pour toutes les bonnes raisons évoquées jusque là. Est-ce qu'on est toutes d'accord sur le sujet ? Je crois...
- Mais il y a aussi les aspects "WIP" ; en effet, on a pu utiliser un peu les LLM pour compenser des manques de compétences en interne. Qu'il s'agisse de générer des images pour avoir une idée de la direction artistique, ou d'essayer de comprendre d'obscurs points de code quand personne sur Krypte n'est apte à répondre. Je ne défendrais pas que c'est "bon" et je pense que nous devons veiller à nous passer de cela, mais la tentation est parfois grande de débloquer en utilisant ce genre d'outil. Mais c'est une position qui est plus facile à avoir quand "tout va bien". Je pense qu'il faut vraiment outiller le projet (et nos membres) pour qu'on puisse justement limiter ce genre d'usage, et préciser les lignes rouges (pas de vibe coding, pas d'illustrations LLM, on est d'accord). C'est peut-être là que notre charte "(non)-usage de l'IA" sera la plus à affiner. Par contre, ne nous leurront pas, on n'est pas dans le dos de chacun, on ne peux pas savoir quel produit final a été permis en partie parce qu'un LLM, à un moment, a pointé la bonne piste dans une doc labyrinthique et obscure. Et je plaide coupable ; en tant que sysadmin, je me suis parfois fait expliquer des concepts par un LLM quand je ne comprenais rien à la doc et que les réponses des humains se bornaient à "mais utilise X au lieu de Y, et non je n'avouerais pas que je ne sais pas répondre à ta question et je vais plutôt te faire perdre du temps sur un outil qui ne répond pas à ta problématique". Pour autant je sais aussi que plus que jamais, il faut travailler à renforcer l'entraide et l'apprentissage entre humains. Et outiller les humains en question à savoir échanger et communiquer...
- Les dépendances : il faut de toute façon qu'on les documente, et à présent cela viendra avec "quelle est la politique IA de ces projets". Cela demande une veille, car il va y avoir des différences entre les dépendances qu'on peut virer, celles qui sont hors de notre portée (Blender, ce n'est pas négociable...), et aussi de voir à quel point c'est contaminé : il y a une différence entre un projet vibe-codé par des humains qui n'y connaissent rien, et accepter de corriger une faille de sécurité remontée lors d'un audit de code par LLM. Mais ça reste un "yakafokon", car on n'a déjà pas une page sur le wikhan listant
toutes nos dépendances sur notre ecosystème... et vu qu'on gère nous-même pas mal de trucs, ça en fait, des logiciels. Pulkomandy résume sinon le problème principal : les capacités humaines à se passer de projets où l'IA est trop présente.
- Les contributions mineures : on aura des gens, à un moment, qui nous proposerons des travaux permis par les LLM. Si certains seront faciles à détecter/refuser (non, pas de roman Khaganat par Deepseek, ni d'illustrations sur les mugs), d'autres peuvent être dans des zones plus complexes à trancher (les bugs impactant la sécurité, en particulier), sans parler de savoir si c'est du travail de bot et à quel pourcentage. Je ne sais pas du tout comment gérer ça. Je ne sais déjà pas pour l'écrit (qui est ma vraie compétence) : j'ai vu des gens partager sur forum leurs histoires en bonne part rédigée par LLM, et je ne l'ai détecté que parce que j'ai fait de mon côté des tests avec les LLM et que je repère assez bien les tics de langage (y compris des machines). Et on ne peux pas accuser "comme ça" les gens d'utiliser des LLM, c'est une pratique qui tends à dégoûter des innocents (les gens qui n'en utilisent pas et s'en font accuser, cessent de créer, ce qui est le pire scénario dans notre logique). Par ailleurs, le fait qu'il y ait un jugement moral sur l'usage de l'IA va pousser certaines personnes à cacher leur usage, ce qui va avec une baisse de confiance au sein de la communauté, et on finit par avoir des problèmes humains, bien plus que des problèmes d'IA.
- Le scrapping par les bots. Ça concerne les sysadmins, mais c'est effectivement questionnant, pas juste côté ressources mais aussi côté éthique. Je bosse en pointillé depuis 2 ans pour limiter ce scrapping, il n'est évidement pas question de se faire pourrir les ressources serveurs par le capitalisme. Mais je suis aussi un peu ambivalente : quitte à ce qu'ils pillent le monde pour leur corpus, j'aimerais bien leur faire intégrer des données alternatives (ce qu'est Khaganat entre autre), histoire qu'ils ne racontent pas que des récits blancs cishet capitalistes

Notez que je m'en fout qu'on se fasse "piller" : à mort la propriété intellectuelle !!! (mais vous avez le droit d'avoir un autre avis, et puis j'aimerais quand même que tout reste dans les communs).
- Il y a sans doute d'autres usages à la limite, que je n'ai pas vu, et si vous en voyez, listez

Quoi qu'il en soit, le sujet a vraiment besoin d'être traité, et qu'on définisse nos positionnements actuels. Mais ça ne va pas être simple.
Faut vraiment que je lise tous les liens, c'est utile de lire ce que font les autres projets, mais j'avoue que pour le moment j'ai pas encore fait.