Pour les aspects "WIP" ou exploratoires:
ça dépend quelles sont les raisons qui font que on est contre l'IA.
Si c'est pour des raisons écologiques (la consommation électrique et en eau de tous les datacenters), par exemple, l'usage final ou exploratoire ne change rien du tout. Si c'est pour des raisons politiques, je crois que c'est pareil.
Si par contre c'est un débat sur la qualité des trucs générés, la discussion est différente. Mais comme je l'indiquais dans mon message, pour moi (c'est mon opinion personnelle, là) le débat ne devrait même pas arriver jusque là. ça remet les choses dans un cadre de type "c'est juste un outil comme un autre" et ça évacue donc les questions qui me semblent les plus importantes (pour moi: la consommation d'eau et d'électricité/émission de CO2 en premier, et la centralisation des LLM autout de quelques modèles fermés avec le projet politique qui va derrière).
Ensuite tu évoques un deuxième aspect qui est qu'une interdiction n'est pas forcément facile à mettre en place. Je pense que personne n'a envie de faire la police là dessus. J'ai un peu d'expérience là-dessus chez Haiku ou nous avons interdit le code généré par LLM (pour des raisons uniquement de droit d'auteur, car c'était la raison la plus facile pour avoir un concensus de l'équipe décisionnaire là-bas). Ça a l'air de fonctionner: il y a de gens qui ne se cachent pas d'utiliser des LLM, qui corrigent des bugs dans leur coin, mais qui ne nous ont pas envoyé leurs contributions pour qu'on les intègre. Le fait d'envoyer un message clair sur notre position fait déjà beaucoup et fait que les gens savent à quoi s'en tenir. Finalement, même si la règle ne peut jamais être appliquée strictement, c'est déjà très bien. On a le même problème avec la gestion des licences, il arrive parfois que des gens intègre du code sous license GPL par erreur. Nous avons toujours pu trouver des solutions, soit en demandant des exceptions de licence aux développeurs concernés, soit en remplaçant le code lorsque les problèmes sont identifiés.
Là je parle surtout de code, c'est le domaine que je connaît mieux.
Ici aussi les compromis sont différents selon les raisons qui poussent à rejeter les contributions par LLM. Si c'est pour des craintes sur le droit d'auteur, il faut une application assez stricte. Si c'est la peur d'être innondées de contributions générées mal fichues, il suffit probablement de traiter les cas les plus évidents ou aucun effort humain n'a été fait. Si c'est pour des raison politiques, il faut accepter que le projet affiche une orientation politique à ce sujet et soit prêt à la défendre (dans la mesure de ses moyens). Et cette orientation peut aussi être extrême ou nuancée.
Enfin pour le scrapping: j'ai pris cet exemple parce que c'est ce qui m'impacte le plus directement. Mais en fait le propos est beaucoup plus général. Pour chaque prompt envoyé à un LLM, derrière il y a non seulement des ressources matérielles (électricité, eau, on en a déjà parlé) mais en fait il y a aussi des gens qui travaillent. Que ce soit pour garder l'internet en état de marche et les sites accessibles, mais aussi pour produire des données d'entraînement de qualité, et encore derrière des gens qui font de la classification de données, de l'entraînement de modèles, etc. Une grande partie de tout ça est très peu ou pas du tout valorisée, et le LLM permet d'oublier et d'invisibiliser toutes ces personnes. C'est une forme d'exploitation d'humains, rendue acceptable par une jolie interface facile à utiliser. On retrouve là un motif de la vente en ligne façon Amazon, des Uber et autres. On te fait coire que c'est de la technologie qui travaille pour toi, mais en fait il y a des humains derrière. On fait en sorte que tu ne communiques pas avec eux comme ça ils peuvent pas se plaindre. Je n'ai pas envie que mes contributions et le temps que je passe à faire des trucs avec des ordinateurs serve à ça. Même dans le cas bizarre où au final, l'humain à l'autre bout du truc, c'est moi qui essaie de régler les problèmes de scrapping sur mon serveur.
Ceci étant dit, difficile d'échapper à tout ça sans faire des compromis difficiles comme abandonner certains logiciels. Finalement, le choix est là. Effectivement, parfois ce sera la réponse réaliste mais difficile à avaler. Parfois ce sera la position militante, active ou juste de principe. Parfois on a juste pas les moyens de lutter face à un truc aussi gros. Je sais déjà que je n'ai pas envie de contribuer à des projets utilisant ces outils. Je suis embêté quand il s'agit de choses dans lesquelles j'ai investi beaucoup de temps (dans mon cas le plus gros exemple c'est WebKit, dont je maintiens une version pour Haiku depuis plus de 10 ans). Je ne suis pas sûr de vouloir prendre une position plus extrême ou je refuse même d'utiliser des logiciels développés avec l'aide de LLM (de la même façon que j'utilise des logiciels non libres et qu'il m'arrive même d'en écrire aussi).
Et donc, n'ayant pas de position pour moi-même sur ce point, je me garderais bien de donner un avis précis sur les limites à mettre au sein de Khaganat. Je crois que pour moi ce qui est important, c'est que la question soit débattue sous cet angle là, plutôt que sur, par exemple, la qualité du travail produit par les LLM ou avec leur aide.
ça dépend quelles sont les raisons qui font que on est contre l'IA.
Si c'est pour des raisons écologiques (la consommation électrique et en eau de tous les datacenters), par exemple, l'usage final ou exploratoire ne change rien du tout. Si c'est pour des raisons politiques, je crois que c'est pareil.
Si par contre c'est un débat sur la qualité des trucs générés, la discussion est différente. Mais comme je l'indiquais dans mon message, pour moi (c'est mon opinion personnelle, là) le débat ne devrait même pas arriver jusque là. ça remet les choses dans un cadre de type "c'est juste un outil comme un autre" et ça évacue donc les questions qui me semblent les plus importantes (pour moi: la consommation d'eau et d'électricité/émission de CO2 en premier, et la centralisation des LLM autout de quelques modèles fermés avec le projet politique qui va derrière).
Ensuite tu évoques un deuxième aspect qui est qu'une interdiction n'est pas forcément facile à mettre en place. Je pense que personne n'a envie de faire la police là dessus. J'ai un peu d'expérience là-dessus chez Haiku ou nous avons interdit le code généré par LLM (pour des raisons uniquement de droit d'auteur, car c'était la raison la plus facile pour avoir un concensus de l'équipe décisionnaire là-bas). Ça a l'air de fonctionner: il y a de gens qui ne se cachent pas d'utiliser des LLM, qui corrigent des bugs dans leur coin, mais qui ne nous ont pas envoyé leurs contributions pour qu'on les intègre. Le fait d'envoyer un message clair sur notre position fait déjà beaucoup et fait que les gens savent à quoi s'en tenir. Finalement, même si la règle ne peut jamais être appliquée strictement, c'est déjà très bien. On a le même problème avec la gestion des licences, il arrive parfois que des gens intègre du code sous license GPL par erreur. Nous avons toujours pu trouver des solutions, soit en demandant des exceptions de licence aux développeurs concernés, soit en remplaçant le code lorsque les problèmes sont identifiés.
Là je parle surtout de code, c'est le domaine que je connaît mieux.
Ici aussi les compromis sont différents selon les raisons qui poussent à rejeter les contributions par LLM. Si c'est pour des craintes sur le droit d'auteur, il faut une application assez stricte. Si c'est la peur d'être innondées de contributions générées mal fichues, il suffit probablement de traiter les cas les plus évidents ou aucun effort humain n'a été fait. Si c'est pour des raison politiques, il faut accepter que le projet affiche une orientation politique à ce sujet et soit prêt à la défendre (dans la mesure de ses moyens). Et cette orientation peut aussi être extrême ou nuancée.
Enfin pour le scrapping: j'ai pris cet exemple parce que c'est ce qui m'impacte le plus directement. Mais en fait le propos est beaucoup plus général. Pour chaque prompt envoyé à un LLM, derrière il y a non seulement des ressources matérielles (électricité, eau, on en a déjà parlé) mais en fait il y a aussi des gens qui travaillent. Que ce soit pour garder l'internet en état de marche et les sites accessibles, mais aussi pour produire des données d'entraînement de qualité, et encore derrière des gens qui font de la classification de données, de l'entraînement de modèles, etc. Une grande partie de tout ça est très peu ou pas du tout valorisée, et le LLM permet d'oublier et d'invisibiliser toutes ces personnes. C'est une forme d'exploitation d'humains, rendue acceptable par une jolie interface facile à utiliser. On retrouve là un motif de la vente en ligne façon Amazon, des Uber et autres. On te fait coire que c'est de la technologie qui travaille pour toi, mais en fait il y a des humains derrière. On fait en sorte que tu ne communiques pas avec eux comme ça ils peuvent pas se plaindre. Je n'ai pas envie que mes contributions et le temps que je passe à faire des trucs avec des ordinateurs serve à ça. Même dans le cas bizarre où au final, l'humain à l'autre bout du truc, c'est moi qui essaie de régler les problèmes de scrapping sur mon serveur.
Ceci étant dit, difficile d'échapper à tout ça sans faire des compromis difficiles comme abandonner certains logiciels. Finalement, le choix est là. Effectivement, parfois ce sera la réponse réaliste mais difficile à avaler. Parfois ce sera la position militante, active ou juste de principe. Parfois on a juste pas les moyens de lutter face à un truc aussi gros. Je sais déjà que je n'ai pas envie de contribuer à des projets utilisant ces outils. Je suis embêté quand il s'agit de choses dans lesquelles j'ai investi beaucoup de temps (dans mon cas le plus gros exemple c'est WebKit, dont je maintiens une version pour Haiku depuis plus de 10 ans). Je ne suis pas sûr de vouloir prendre une position plus extrême ou je refuse même d'utiliser des logiciels développés avec l'aide de LLM (de la même façon que j'utilise des logiciels non libres et qu'il m'arrive même d'en écrire aussi).
Et donc, n'ayant pas de position pour moi-même sur ce point, je me garderais bien de donner un avis précis sur les limites à mettre au sein de Khaganat. Je crois que pour moi ce qui est important, c'est que la question soit débattue sous cet angle là, plutôt que sur, par exemple, la qualité du travail produit par les LLM ou avec leur aide.






