Aller au menu du forum Aller au contenu du forum Aller à la recherche dans le forum
Logo Khaganat
Menu principal

Khaganat et son rapport aux LLM

alcyone

Les IA générative / LLM sont l'un des grands sujets du monde (et du monde du Libre).

Khaganat s'y est frotté vers ses débuts il y a 2-3 par les expérimentations de certaines de ses membres.

Le sujet n'a pas fait l'unanimité et comme Lyne le concluait dans l'article de blog de l'AG correspondante :
CitationCela a suscité les seuls échanges en séance, qui ont rapidement conclu que nous sommes toutes d'accord pour dire que l'IA peut être une source d'inspiration interne, éventuellement pour avoir des visions différentes, tant que nous n'avons pas de ressources capables de modéliser ou créer des graphismes, mais pas au-delà. Les seules images diffusées sont des images que nous créons nous-mêmes avec nos outils validés.

Au passage, une remarque sur les images utilisées pour illustrer les blogs4) : dans les banques d'images, on trouve de plus en plus d'images générées par IA, donc il faudra être particulièrement attentives à ce que nous utiliserons.

On s'était dit (quelques années) plus tard à l'occasion de discussions informelles que ce serait bien de réaborder le sujet et ce avant la prochaine AG afin d'avoir un positionnement plus officiellement annoncé et exposé.

Le sujet a initialement été relancé sur le chat, je remets ici les logs pour le continuer plus posément :

CitationLocynaeh :

Du coup je lance le sujet : quel est le positionnement de Khaganat sur l'usage des IA/LLM ?

Et de façon connexe : quelle relation aux outils "AI-tainted" que nous utilisons ?
Sachant pour le contexte qu'il est facile de lister les projets s'y opposant en défendant leurs valeurs, l'inverse est quasi impossible tant l'usage est massif (sans parler de la quantité de projets vibe-codés qui sort quotidiennement).

Quelques références :
 - https://github.com/Vxrpenter/AIMania/blob/main/WHY.md#why (arguments contres et références)
 - https://codeberg.org/small-hack/open-slopware#why-not-llms (arguments contres et références)
 - https://noai.starlightnet.work/list.html (liste maintenue des projets ayant officiellement une politique interdisant les LLM)
 - https://github.com/melissawm/open-source-ai-contribution-policies (liste de politique IA de projets FLOSS, qu'elles soient pour ou contre)
 - https://gitlab.com/inkscape/inkscape-board/-/work_items/5#note_3140424828 (politique en cours de discussion chez Inkscape que je trouve bien adaptée selon mon point de vue).

Pour le 1er point, je pense que l'on connait déjà mon positionnement ici, je peux détailler bien entendu (le draft d'Inkscape reprend bien ce que j'en pense cependant).

Pour la question connexe. Je pense que pour les outils au-delà des briques inévitables (style noyau Linux ou langage comme Python) fonction de nos moyens, ça vaut la peine de mettre un mot, indiquant notre non support (le cas échéant) et l'absence d'alternative satisfaisante s'y opposant clairement à ce jour : Godot, Blender, etc...

Yannk :

J'aime beaucoup aussi la position de Inkscape. De mon côté j'y ajoute le fait que le but de Khaganat c'est de prendre plaisir à faire ensemble, et que le but n'est pas tant d'arriver à un livrable (heureusement parce que bon, au bout de... 12 ans ?, on n'a pas "livré" grand chose en terme de jeu), que de se soutenir pour apprendre les unes des autres et faire ce qui nous plaît.

On a pu expérimenter un temps avec les LLMs par le passé, il ne faut pas le cacher, mais l'association avazit déjà convenu que ce n'était pas envisageable d'en faire un usage autre que ponctuel et transitionnel. Il me semble qu'on peut aller au-delà, en partant d'un des arguments de Inkscape : pour se soutenir les unes les autres, il faut être en mesure de transmettre son savoir-faire, de le faire évoluer pour soi et les autres.

Et si, par exemple, j ne faisais de la 3D et des textures qqu'avec des prompts d'IAG, je ne serais pas en mesure d'expliquer les raisons de certains choix techniques, d'apprendre à d'autres comme s'y prendre, comment débuter la modélisation ou le rigging.

Locynaeh :

C'est clairement des arguments que je partage :-) la partie apprentissage, apprendre à faire, transmettre, me touche beaucoup

Yannk :

J'anime des ateliers d'écriture en milieu universitaire (élèves ingénieurs) et chaque fois on installe un débat sur l'autorisation ou non de l'IAG, pour que les étudiantes et étudiants trouvent un consensus d'usage. Et très clairement, il en est ressorti à chaque fois que comme iels ne sont pas en situation de production calibrée (iels auront l'UV en étant simplement là toute la semaine, quelle que soit la qualité produite), iels trouveraient dommage de ne pas profiter de l'opportunité d'apprendre un nouveau savoir-faire.

Il me semble qu'on est dans une situation similaire avec le projet que porte Khaganat

vv221 :

Merci pour avoir lancé le sujet Alcyone. Je suis assez curieux de voir si je vais être le seul à soutenir une opposition totale sur des bases uniquement politiques.

Locynaeh :

"Uniquement" c'est possible, j'y suis opposé politiquement mais pas que ^^

vv221 :

Oh, ce n'est pas que je ne m'y oppose pas pour d'autres raisons (double négation \o/), mais je les considère toutes comme négligeables comparées à l'axe politique ;)

Locynaeh :

Oui, je suis assez d'accord même si je mettrais un angle éthique qui revient un peu au même, sans même évoquer les autres raisons, elles se suffisent à elles-mêmes.
Je suis assez effaré de voir à quel point ont les écartes facilement. Je le comprends aussi car c'est un peu le mode de vie de notre société de dégager l'éthique autant que possible pour le bien-être et la prospérité du capitalisme. On le subit au quotidien, c'est aussi plus simple d'y céder.

vv221:

Ouais, mais si on cherchait la simplicité avant tout, on jouerait à World of Warcraft sur Windows et ce salon n'existerait pas ;P

PulkoMandy:

* PulkoMandy ronchonne un peu en voyant Linux classé dans les "briques inévitables"

Locynaeh:

Sur la quantité de drivers supportés 😜 sinon je serais déjà sur *insère le nom d'un noyau opposé aux LLM*
vv221: certes mais il y a différents niveau de compromis selon la charge mentale, les moyens, tout ça^^'

vv221:

Pour l'instant je ne connais pas d'aternative à Linux qui puisse faire tourner ma collection de jeux. Sinon j'aurais aussi déjà migré.
(même Windows ne pourrait pas tous les faire tourner, c'est dire à quel point je suis limité dans mes options...)

PulkoMandy:

C'est vrai que depuis que j'essaie d'écrire des drivers, j'ai plus le temps de jouer...

vv221:

PulkoMandy, pour Haiku vous devez écrire les drivers from scratch, sans assistance particulière de la part des fabricants ?

PulkoMandy:

Oui en général. On récupère du code de freebsd et de openbsd aussi (pour les drivers réseau par exemple)

K'Deed:

après j'ai lu que les modif par IA sont refusés presque partout. Il laisse le droit juste une légère aide . Apparement, le code par 100% IA , c'est un bug corrigé, 5 bug en plus....

Locynaeh:

K'Deed, dans quel contexte ?

K'Deed:

comme assistant
j'ai vu ça sur godot et le kernel

Locynaeh:

Hum, ni l'un ni l'autre n'a une politique disant ça, c'est beaucoup moins restrictif
A vrai dire c'est l'inverse, très peu de projets refuse l'IA
La plupart refuse les contributions complètement vibecodé (comme ils refusaient globalement le code de merde, c'est la même raison en fait)
"vibecodé" comprendre codé intégralement par l'IA, qu'importe le nombre d'itérations
Sauf cas particulier, interdire le code vibecodé c'est en gros ce que disent toutes les politiques permissives

K'Deed:

Locynaeh: ça a changer cette semaine

vv221:

K'Deed, si tu as lu ça, tu te plantes ;)
Aussi bien Linux que Godot acceptent les contributions générées par IA.
Tout comme, en fait, la majorité des projets logiciels.

Locynaeh:

K'Deed: pas vu de maj de la politique là


alcyone

Suite :

Citationmar. 28 avril 2026 21:08:45 - vv221: Génial, Blender a rejoint le côté obscur : https://www.blender.org/press/anthropic-joins-the-blender-development-fund-as-corporate-patron/

mar. 28 avril 2026 21:08:56 - vv221: Il nous reste quoi, pour la 3D sur Linux ?

mar. 28 avril 2026 21:14:38 - kujiu: J'ai prévu de me mettre à Blender. Mais bon, je vois mal comment aller voir ailleurs vu tout ce qu'il fait.
J'ai lâché l'affaire en matière de boycott de logiciel dopé à l'IA, c'est devenu impossible.

mar. 28 avril 2026 21:15:24 - Alcyone: vv221, Blender était déjà porté sur les contributions LLM depuis un bail d'où le fait que j'indiquais dans le sujet de discussion LLM :
> Pour la question connexe. Je pense que pour les outils au-delà des briques inévitables (style noyau Linux ou langage comme Python) fonction de nos moyens, ça vaut la peine de mettre un mot, indiquant notre non support (le cas échéant) et l'absence d'alternative satisfaisante s'y opposant clairement à ce jour : Godot, Blender, etc.

mar. 28 avril 2026 21:16:28 - vv221: Je n'avais pas tiqué sur Blender à ce moment-là, je conaissais seulement la trahison de Godot.

mar. 28 avril 2026 21:16:37 - kujiu: Il faudra aussi que j'aille voir le forum pour répondre.

mar. 28 avril 2026 21:16:43 - Alcyone: C'est plus ancien de mémoire

mar. 28 avril 2026 21:17:04 - kujiu: Ouais, Blender ça fait un moment, mais ils ont un groupe à part pour l'IA.

mar. 28 avril 2026 22:01:18 - vv221: Ici c'est avec ce nouveau financement que je le découvre...
Je ne suis malheureusement pas très surpris.

mar. 28 avril 2026 22:14:08 - osquallo: essaye wings3d peut être :p *n'a aucune idée de comment s'est financé ni tous ces truc à débats*

mer. 29 avril 2026 15:01:19 - FrancoisA: Mais si un logiciel offre la possibilité d'utiliser l'IA personne ne t'oblige à l'utiliser.
Une voiture peut tuer. Mais ce n'est pas pour cela que les gens normaux utilisent leur voiture.
En revanche, Khaganat a eu raison de quitter Gitlab, car ce genre de plateforme peut réutiliser le code open source à l'insu des développeurs.

mer. 29 avril 2026 15:07:01 - FrancoisA: Je pensais surtout à GitHub qui a été racheté par Microsoft (qui a installé Copilot dessus).

mer. 29 avril 2026 15:09:43 - gpsqueeek: Les voitures comme l'IA polluent énormément. Pour pas mal d'usages urbains, la voiture n'a pas lieu d'être utilisée. Pour autant,dans les zones qui ne sont pas desservies, pas bien le choix...
Quand du code est généré par IA, c'est impossible à maintenir, on perd les compétences, le tout avec une grosse pollution à la clé, avec pillage de plein de données en amont pour l'entrainement (sur tout code public, pas juste github)
Je veux bien entendre que pour certains cas d'usage ça ouvre des portes, perso je fais sans (enfin, autant que je sache, mais il y en a tellement partout maintenant...)
Quand je parle d'IA ci dessus, je parle d'IA générative hein

mer. 29 avril 2026 15:24:08 - Alcyone: A mon sens FrancoisA, tu tombes dans l'habituel poncif ignorant des siècles de philo de la technique sur la supposée neutralité de l'outil. C'est malheureusement très courant et c'est dommage. On va pas rentrer dans une thèse sur le sujet mais je vais poser là que c'est un propos qui a très peu de sens une fois que l'on se pose une minute pour y réfléchir.

J'avais dans un coin un article très court de l'auteur de DotClear sur ce sujet (en français) qui invite à faire les 1ers pas de réflexion : https://open-time.net/post/2023/01/16/Neutre-ou-pas-neutre

Et effectivement on peut poursuivre l'exemple de gpsqueeek : quand cet outil est conçu dans le dédain total des enjeux climatiques actuels (au point que les boîtes conceptrices ont retiré officiellement leurs objectifs dans ce domaine et financent activement le gouvernement d'extrême-droite d'un des pays les plus influents du monde s'y opposant pour favoriser leurs profits dans ce domaine), il n'y a pas de "bonne" façon de l'utiliser qui peut contrebalançer cela.

Et tu peux également faire le tour de l'ensemble des problèmes directs et indirects posé par le développement de l'IA générative/LLM (voir le sujet de forum démarré à cet effet : https://khaganat.net/forum/index.php/topic,821.msg3421.html#msg3421).

mer. 29 avril 2026 15:26:34 - FrancoisA: On est d'accord qu'il vaut mieux ne pas utiliser l'IA.

mer. 29 avril 2026 15:27:34 - Alcyone: Le parallèle avec la voiture est très intéressant dans le sens que l'objet seul n'a pas de sens sans son contexte, l'industrie l'environnant, son impact sur le développement des villes, le développement d'autres moyens de transports, etc.
Cet article de Louis Derrac qui cite à juste titre "La vallée de Silicium" de Damasio reprend le sujet un peu synthétiquement (et reprend l'exemple de la voiture): https://louisderrac.com/les-outils-techniques-sont-neutres-prenez-ce-couteau-par-exemple/

mer. 29 avril 2026 15:45:11 - osquallo: sauf que tous ces probleme date de bien avant l'ia

mer. 29 avril 2026 15:45:55 - Alcyone: osquallo, c'est bien pour ça que la philo de la technique date de bien avant l'électricité ;-)
L'IA pose de nouveaux problèmes et en aggrave de nombreux existant

mer. 29 avril 2026 15:48:13 - osquallo: il ne les pose pas il les met juste en lumière la ou vous n'arriviez pas a les voir

mer. 29 avril 2026 15:48:35 - vv221: L'IA est surtout avant tout un projet de société, pas "un outil neutre". Un projet de société fasciste.
Utiliser l'IA, défendre l'utilisation de l'IA, défendre même *l'existence* de l'IA, c'est défendre ce projet fasciste.

mer. 29 avril 2026 15:52:07 - Alcyone: osquallo, en tournant très fort le sujet, on peut imaginer que l'IA a un effet loupe sur de nombreux problèmes existant dont elle augmente la portée. Je pense sincèrement que les modifications qu'elle entraîne et sa dimension crée en soi de nouveaux problèmes, particulièrement sociaux et sociétaux.

mer. 29 avril 2026 15:53:03 - osquallo: le probleme c'est surtotu du coter de l'humain et tant qu'on se dedouiane sur les outils pour pas avoir a ce changer soi meme rien ne changera


Dernière édition: 29 Avril 2026 à 16:39:39 par alcyone

alcyone

Je te réponds ici osquallo :

Citationmer. 29 avril 2026 15:53:03 - osquallo: le probleme c'est surtotu du coter de l'humain et tant qu'on se dedouiane sur les outils pour pas avoir a ce changer soi meme rien ne changera

Pour moi ce n'est qu'une facette du sujet prise isolément, qui se retrouve dans l'argument classique vu plus haut de l'outil neutre dont seule l'utilisation (le "côté humain") compte.
J'ai indiqué que la neutralité de l'outil n'avait aucun sens, ça ne veut bien sûr pas dire que son utilisation n'est pas à prendre en compte, elle ne va cependant pas sans tenir compte de l'outil lui même dont sa conception non neutre par essence influence l'usage.

Et en parlant d'influence, c'est littéralement la technologie la plus financée à l'heure actuelle, elle se développe et se répand à une vitesse exceptionnelle et son impact sur la société n'a pas d'équivalent sur son échelle de temps et c'est loin d'être terminé.

L'autre point que cela m'évoque, c'est la fameuse fable du colibri à la sauce Pierre Rahbi dont la maxime est d'isoler un problème sociétal à la responsabilité individuel (curieusement, les versions originales n'auraient pas cet dénouement). Certes chacun peut faire sa part mais la société est une entité en elle-même sur laquelle en agissant seul pour soi-même, l'influence est limitée et un problème de société réclame plutôt des actions collectives.

On pourrait épiloguer plus loin sur le pouvoir de nuisance individuel qu'offre la possibilité d'enrichissement illimité du capitalisme au détriment des autres et son rôle dans l'avènement d'une telle technologie mais on s'éloigne quand même pas mal du sujet qui reste le positionnement de Khaganat.





Dernière édition: 29 Avril 2026 à 16:38:36 par alcyone

pulkomandy

Bonjour,

Je ne suis le projet que de loin, donc mon avis personnel vaut ce qu'il vaut.

Je vois qu'il y a 2 problématiques qui se dégagent:

- D'un côté l'utilisation de LLM dans le projet (que ce soit pour générer des images, du code, ou quoi que ce soit d'autre): Inkscape fait en effet un assez bon résumé de la situation. C'est néfaste éthiquement et politiquement, c'est généralement mauvais à moyen techniquement, et je peux ajouter que accepter les contributions générées par des LLM, c'est s'exposer à une grande quantité de contributions mal fichues qui vont demander plus de travail pour mettre les choses "au propre" que de faire directement les choses soi-même. Mais en fait le débat sur cette dernière question me semble un peu inutile: les raisons éthiques et politiques sont, comme vv l'a indiqué, largement suffisantes pour rejeter le truc, pas la peine d'aller plus loin, même si ça donnait de bons résultats ce serait quand même une mauvaise idée.

- D'un autre côté, il y a les dépendances à d'autres projets. Et là, on est déjà dans une situation plus difficile. Blender et Linux ont été mentionnés, mais il y a tout un ensemble d'autres outils, pas tous facilement remplaçables (à moins de rester bloqué sur des anciennes versions?). C'est là que il y a un vrai problème à résoudre: soit accepter la situation de façon générale et continuer à autoriser ces outils, soit seulement certains après avoir confirmé qu'il n'y a pas d'alternative, soit aucun quitte à mettre beaucoup d'énergie pour trouver ou construire un remplacement. C'est une question qui se pose aussi quand il s'agit de choisir un logiciel libre vs un propriétaire, ou un protocole ouvert vs un qui est maintenu par une seule entreprise.

Et c'est là que je ne m'estime pas pertinent pour intervenir puisque je n'ai pas les mains dans les projets correspondants. Peut-on remplacer Blender ou Godot par autre chose? Aucune idée. Est-ce que Linux doit rester parmi les systèmes d'exploitation sur lesquels le client peut fonctionner? Même question pour Windows? Quel compromis êtes-vous prêts à faire?

Personnellement, j'échappe à peu près à ces problèmes pour l'instant. Je suis cependant exposé (pour l'hébergement de ma forge logicielle personelle) à un traffic très important de bots qui scannent tout n'importe comment et qui sont au moins en partie lié à l'entraînement et l'utilisation de LLM. Cela me consomme un peu de temps et d'énergie pour maintenir ce serveur en ligne. Je dois également questionner certains des logiciels que j'utilise et auxquels je contribue, et peut-être jeter des dizaines d'année de travail (par exemple sur le moteur de rendu web WebKit, dans lequel l'utilisation de code généré par LLM semble admise maintenant). Je ne sais pas encore ce que je vais faire. Je suis intéressé de lire une discussion sur ce sujet, en tout cas.

Zatalyz

Il me semble aussi important de voir "où" l'IA nous impacte et ce qu'on en fait.

Il y a des parties, c'est facile, et d'autres où ça pose plus de questions (sans que les réponses possibles soient bien satisfaisantes ou réalistes à mon goût).


Ce que liste Pulkomandy me semble une base, je reprends un peu :

- Usage de LLM pour générer du contenu "final" pour Khaganat : définitivement pas envisageable, pour toutes les bonnes raisons évoquées jusque là. Est-ce qu'on est toutes d'accord sur le sujet ? Je crois...

- Mais il y a aussi les aspects "WIP" ; en effet, on a pu utiliser un peu les LLM pour compenser des manques de compétences en interne. Qu'il s'agisse de générer des images pour avoir une idée de la direction artistique, ou d'essayer de comprendre d'obscurs points de code quand personne sur Krypte n'est apte à répondre. Je ne défendrais pas que c'est "bon" et je pense que nous devons veiller à nous passer de cela, mais la tentation est parfois grande de débloquer en utilisant ce genre d'outil. Mais c'est une position qui est plus facile à avoir quand "tout va bien". Je pense qu'il faut vraiment outiller le projet (et nos membres) pour qu'on puisse justement limiter ce genre d'usage, et préciser les lignes rouges (pas de vibe coding, pas d'illustrations LLM, on est d'accord). C'est peut-être là que notre charte "(non)-usage de l'IA" sera la plus à affiner. Par contre, ne nous leurront pas, on n'est pas dans le dos de chacun, on ne peux pas savoir quel produit final a été permis en partie parce qu'un LLM, à un moment, a pointé la bonne piste dans une doc labyrinthique et obscure. Et je plaide coupable ; en tant que sysadmin, je me suis parfois fait expliquer des concepts par un LLM quand je ne comprenais rien à la doc et que les réponses des humains se bornaient à "mais utilise X au lieu de Y, et non je n'avouerais pas que je ne sais pas répondre à ta question et je vais plutôt te faire perdre du temps sur un outil qui ne répond pas à ta problématique". Pour autant je sais aussi que plus que jamais, il faut travailler à renforcer l'entraide et l'apprentissage entre humains. Et outiller les humains en question à savoir échanger et communiquer...

- Les dépendances : il faut de toute façon qu'on les documente, et à présent cela viendra avec "quelle est la politique IA de ces projets". Cela demande une veille, car il va y avoir des différences entre les dépendances qu'on peut virer, celles qui sont hors de notre portée (Blender, ce n'est pas négociable...), et aussi de voir à quel point c'est contaminé : il y a une différence entre un projet vibe-codé par des humains qui n'y connaissent rien, et accepter de corriger une faille de sécurité remontée lors d'un audit de code par LLM. Mais ça reste un "yakafokon", car on n'a déjà pas une page sur le wikhan listant toutes nos dépendances sur notre ecosystème... et vu qu'on gère nous-même pas mal de trucs, ça en fait, des logiciels. Pulkomandy résume sinon le problème principal : les capacités humaines à se passer de projets où l'IA est trop présente.

- Les contributions mineures : on aura des gens, à un moment, qui nous proposerons des travaux permis par les LLM. Si certains seront faciles à détecter/refuser (non, pas de roman Khaganat par Deepseek, ni d'illustrations sur les mugs), d'autres peuvent être dans des zones plus complexes à trancher (les bugs impactant la sécurité, en particulier), sans parler de savoir si c'est du travail de bot et à quel pourcentage. Je ne sais pas du tout comment gérer ça. Je ne sais déjà pas pour l'écrit (qui est ma vraie compétence) : j'ai vu des gens partager sur forum leurs histoires en bonne part rédigée par LLM, et je ne l'ai détecté que parce que j'ai fait de mon côté des tests avec les LLM et que je repère assez bien les tics de langage (y compris des machines). Et on ne peux pas accuser "comme ça" les gens d'utiliser des LLM, c'est une pratique qui tends à dégoûter des innocents (les gens qui n'en utilisent pas et s'en font accuser, cessent de créer, ce qui est le pire scénario dans notre logique). Par ailleurs, le fait qu'il y ait un jugement moral sur l'usage de l'IA va pousser certaines personnes à cacher leur usage, ce qui va avec une baisse de confiance au sein de la communauté, et on finit par avoir des problèmes humains, bien plus que des problèmes d'IA.

- Le scrapping par les bots. Ça concerne les sysadmins, mais c'est effectivement questionnant, pas juste côté ressources mais aussi côté éthique. Je bosse en pointillé depuis 2 ans pour limiter ce scrapping, il n'est évidement pas question de se faire pourrir les ressources serveurs par le capitalisme. Mais je suis aussi un peu ambivalente : quitte à ce qu'ils pillent le monde pour leur corpus, j'aimerais bien leur faire intégrer des données alternatives (ce qu'est Khaganat entre autre), histoire qu'ils ne racontent pas que des récits blancs cishet capitalistes  :doubt: Notez que je m'en fout qu'on se fasse "piller" : à mort la propriété intellectuelle !!! (mais vous avez le droit d'avoir un autre avis, et puis j'aimerais quand même que tout reste dans les communs).

- Il y a sans doute d'autres usages à la limite, que je n'ai pas vu, et si vous en voyez, listez ;)

Quoi qu'il en soit, le sujet a vraiment besoin d'être traité, et qu'on définisse nos positionnements actuels. Mais ça ne va pas être simple.

Faut vraiment que je lise tous les liens, c'est utile de lire ce que font les autres projets, mais j'avoue que pour le moment j'ai pas encore fait.

pulkomandy

Pour les aspects "WIP" ou exploratoires:

ça dépend quelles sont les raisons qui font que on est contre l'IA.

Si c'est pour des raisons écologiques (la consommation électrique et en eau de tous les datacenters), par exemple, l'usage final ou exploratoire ne change rien du tout. Si c'est pour des raisons politiques, je crois que c'est pareil.

Si par contre c'est un débat sur la qualité des trucs générés, la discussion est différente. Mais comme je l'indiquais dans mon message, pour moi (c'est mon opinion personnelle, là) le débat ne devrait même pas arriver jusque là. ça remet les choses dans un cadre de type "c'est juste un outil comme un autre" et ça évacue donc les questions qui me semblent les plus importantes (pour moi: la consommation d'eau et d'électricité/émission de CO2 en premier, et la centralisation des LLM autout de quelques modèles fermés avec le projet politique qui va derrière).


Ensuite tu évoques un deuxième aspect qui est qu'une interdiction n'est pas forcément facile à mettre en place. Je pense que personne n'a envie de faire la police là dessus. J'ai un peu d'expérience là-dessus chez Haiku ou nous avons interdit le code généré par LLM (pour des raisons uniquement de droit d'auteur, car c'était la raison la plus facile pour avoir un concensus de l'équipe décisionnaire là-bas). Ça a l'air de fonctionner: il y a de gens qui ne se cachent pas d'utiliser des LLM, qui corrigent des bugs dans leur coin, mais qui ne nous ont pas envoyé leurs contributions pour qu'on les intègre. Le fait d'envoyer un message clair sur notre position fait déjà beaucoup et fait que les gens savent à quoi s'en tenir. Finalement, même si la règle ne peut jamais être appliquée strictement, c'est déjà très bien. On a  le même problème avec la gestion des licences, il arrive parfois que des gens intègre du code sous license GPL par erreur. Nous avons toujours pu trouver des solutions, soit en demandant des exceptions de licence aux développeurs concernés, soit en remplaçant le code lorsque les problèmes sont identifiés.

Là je parle surtout de code, c'est le domaine que je connaît mieux.

Ici aussi les compromis sont différents selon les raisons qui poussent à rejeter les contributions par LLM. Si c'est pour des craintes sur le droit d'auteur, il faut une application assez stricte. Si c'est la peur d'être innondées de contributions générées mal fichues, il suffit probablement de traiter les cas les plus évidents ou aucun effort humain n'a été fait. Si c'est pour des raison politiques, il faut accepter que le projet affiche une orientation politique à ce sujet et soit prêt à la défendre (dans la mesure de ses moyens). Et cette orientation peut aussi être extrême ou nuancée.


Enfin pour le scrapping: j'ai pris cet exemple parce que c'est ce qui m'impacte le plus directement. Mais en fait le propos est beaucoup plus général. Pour chaque prompt envoyé à un LLM, derrière il y a non seulement des ressources matérielles (électricité, eau, on en a déjà parlé) mais en fait il y a aussi des gens qui travaillent. Que ce soit pour garder l'internet en état de marche et les sites accessibles, mais aussi pour produire des données d'entraînement de qualité, et encore derrière des gens qui font de la classification de données, de l'entraînement de modèles, etc. Une grande partie de tout ça est très peu ou pas du tout valorisée, et le LLM permet d'oublier et d'invisibiliser toutes ces personnes. C'est une forme d'exploitation d'humains, rendue acceptable par une jolie interface facile à utiliser. On retrouve là un motif de la vente en ligne façon Amazon, des Uber et autres. On te fait coire que c'est de la technologie qui travaille pour toi, mais en fait il y a des humains derrière. On fait en sorte que tu ne communiques pas avec eux comme ça ils peuvent pas se plaindre. Je n'ai pas envie que mes contributions et le temps que je passe à faire des trucs avec des ordinateurs serve à ça. Même dans le cas bizarre où au final, l'humain à l'autre bout du truc, c'est moi qui essaie de régler les problèmes de scrapping sur mon serveur.

Ceci étant dit, difficile d'échapper à tout ça sans faire des compromis difficiles comme abandonner certains logiciels. Finalement, le choix est là. Effectivement, parfois ce sera la réponse réaliste mais difficile à avaler. Parfois ce sera la position militante, active ou juste de principe. Parfois on a juste pas les moyens de lutter face à un truc aussi gros. Je sais déjà que je n'ai pas envie de contribuer à des projets utilisant ces outils. Je suis embêté quand il s'agit de choses dans lesquelles j'ai investi beaucoup de temps (dans mon cas le plus gros exemple c'est WebKit, dont je maintiens une version pour Haiku depuis plus de 10 ans). Je ne suis pas sûr de vouloir prendre une position plus extrême ou je refuse même d'utiliser des logiciels développés avec l'aide de LLM (de la même façon que j'utilise des logiciels non libres et qu'il m'arrive même d'en écrire aussi).

Et donc, n'ayant pas de position pour moi-même sur ce point, je me garderais bien de donner un avis précis sur les limites à mettre au sein de Khaganat. Je crois que pour moi ce qui est important, c'est que la question soit débattue sous cet angle là, plutôt que sur, par exemple, la qualité du travail produit par les LLM ou avec leur aide.

Licences Mentions légales Accueil du site Contact Inclusion