Derniers messages
Dernier message par YannK - Hier à 15:32:56
Cliquez pour afficher le message
Moi j'aime beaucoup le Yet Another innovative Koala 

Dernier message par pulkomandy - Hier à 15:12:37
Cliquez pour afficher le message
Pour les aspects "WIP" ou exploratoires:
ça dépend quelles sont les raisons qui font que on est contre l'IA.
Si c'est pour des raisons écologiques (la consommation électrique et en eau de tous les datacenters), par exemple, l'usage final ou exploratoire ne change rien du tout. Si c'est pour des raisons politiques, je crois que c'est pareil.
Si par contre c'est un débat sur la qualité des trucs générés, la discussion est différente. Mais comme je l'indiquais dans mon message, pour moi (c'est mon opinion personnelle, là) le débat ne devrait même pas arriver jusque là. ça remet les choses dans un cadre de type "c'est juste un outil comme un autre" et ça évacue donc les questions qui me semblent les plus importantes (pour moi: la consommation d'eau et d'électricité/émission de CO2 en premier, et la centralisation des LLM autout de quelques modèles fermés avec le projet politique qui va derrière).
Ensuite tu évoques un deuxième aspect qui est qu'une interdiction n'est pas forcément facile à mettre en place. Je pense que personne n'a envie de faire la police là dessus. J'ai un peu d'expérience là-dessus chez Haiku ou nous avons interdit le code généré par LLM (pour des raisons uniquement de droit d'auteur, car c'était la raison la plus facile pour avoir un concensus de l'équipe décisionnaire là-bas). Ça a l'air de fonctionner: il y a de gens qui ne se cachent pas d'utiliser des LLM, qui corrigent des bugs dans leur coin, mais qui ne nous ont pas envoyé leurs contributions pour qu'on les intègre. Le fait d'envoyer un message clair sur notre position fait déjà beaucoup et fait que les gens savent à quoi s'en tenir. Finalement, même si la règle ne peut jamais être appliquée strictement, c'est déjà très bien. On a le même problème avec la gestion des licences, il arrive parfois que des gens intègre du code sous license GPL par erreur. Nous avons toujours pu trouver des solutions, soit en demandant des exceptions de licence aux développeurs concernés, soit en remplaçant le code lorsque les problèmes sont identifiés.
Là je parle surtout de code, c'est le domaine que je connaît mieux.
Ici aussi les compromis sont différents selon les raisons qui poussent à rejeter les contributions par LLM. Si c'est pour des craintes sur le droit d'auteur, il faut une application assez stricte. Si c'est la peur d'être innondées de contributions générées mal fichues, il suffit probablement de traiter les cas les plus évidents ou aucun effort humain n'a été fait. Si c'est pour des raison politiques, il faut accepter que le projet affiche une orientation politique à ce sujet et soit prêt à la défendre (dans la mesure de ses moyens). Et cette orientation peut aussi être extrême ou nuancée.
Enfin pour le scrapping: j'ai pris cet exemple parce que c'est ce qui m'impacte le plus directement. Mais en fait le propos est beaucoup plus général. Pour chaque prompt envoyé à un LLM, derrière il y a non seulement des ressources matérielles (électricité, eau, on en a déjà parlé) mais en fait il y a aussi des gens qui travaillent. Que ce soit pour garder l'internet en état de marche et les sites accessibles, mais aussi pour produire des données d'entraînement de qualité, et encore derrière des gens qui font de la classification de données, de l'entraînement de modèles, etc. Une grande partie de tout ça est très peu ou pas du tout valorisée, et le LLM permet d'oublier et d'invisibiliser toutes ces personnes. C'est une forme d'exploitation d'humains, rendue acceptable par une jolie interface facile à utiliser. On retrouve là un motif de la vente en ligne façon Amazon, des Uber et autres. On te fait coire que c'est de la technologie qui travaille pour toi, mais en fait il y a des humains derrière. On fait en sorte que tu ne communiques pas avec eux comme ça ils peuvent pas se plaindre. Je n'ai pas envie que mes contributions et le temps que je passe à faire des trucs avec des ordinateurs serve à ça. Même dans le cas bizarre où au final, l'humain à l'autre bout du truc, c'est moi qui essaie de régler les problèmes de scrapping sur mon serveur.
Ceci étant dit, difficile d'échapper à tout ça sans faire des compromis difficiles comme abandonner certains logiciels. Finalement, le choix est là. Effectivement, parfois ce sera la réponse réaliste mais difficile à avaler. Parfois ce sera la position militante, active ou juste de principe. Parfois on a juste pas les moyens de lutter face à un truc aussi gros. Je sais déjà que je n'ai pas envie de contribuer à des projets utilisant ces outils. Je suis embêté quand il s'agit de choses dans lesquelles j'ai investi beaucoup de temps (dans mon cas le plus gros exemple c'est WebKit, dont je maintiens une version pour Haiku depuis plus de 10 ans). Je ne suis pas sûr de vouloir prendre une position plus extrême ou je refuse même d'utiliser des logiciels développés avec l'aide de LLM (de la même façon que j'utilise des logiciels non libres et qu'il m'arrive même d'en écrire aussi).
Et donc, n'ayant pas de position pour moi-même sur ce point, je me garderais bien de donner un avis précis sur les limites à mettre au sein de Khaganat. Je crois que pour moi ce qui est important, c'est que la question soit débattue sous cet angle là, plutôt que sur, par exemple, la qualité du travail produit par les LLM ou avec leur aide.
ça dépend quelles sont les raisons qui font que on est contre l'IA.
Si c'est pour des raisons écologiques (la consommation électrique et en eau de tous les datacenters), par exemple, l'usage final ou exploratoire ne change rien du tout. Si c'est pour des raisons politiques, je crois que c'est pareil.
Si par contre c'est un débat sur la qualité des trucs générés, la discussion est différente. Mais comme je l'indiquais dans mon message, pour moi (c'est mon opinion personnelle, là) le débat ne devrait même pas arriver jusque là. ça remet les choses dans un cadre de type "c'est juste un outil comme un autre" et ça évacue donc les questions qui me semblent les plus importantes (pour moi: la consommation d'eau et d'électricité/émission de CO2 en premier, et la centralisation des LLM autout de quelques modèles fermés avec le projet politique qui va derrière).
Ensuite tu évoques un deuxième aspect qui est qu'une interdiction n'est pas forcément facile à mettre en place. Je pense que personne n'a envie de faire la police là dessus. J'ai un peu d'expérience là-dessus chez Haiku ou nous avons interdit le code généré par LLM (pour des raisons uniquement de droit d'auteur, car c'était la raison la plus facile pour avoir un concensus de l'équipe décisionnaire là-bas). Ça a l'air de fonctionner: il y a de gens qui ne se cachent pas d'utiliser des LLM, qui corrigent des bugs dans leur coin, mais qui ne nous ont pas envoyé leurs contributions pour qu'on les intègre. Le fait d'envoyer un message clair sur notre position fait déjà beaucoup et fait que les gens savent à quoi s'en tenir. Finalement, même si la règle ne peut jamais être appliquée strictement, c'est déjà très bien. On a le même problème avec la gestion des licences, il arrive parfois que des gens intègre du code sous license GPL par erreur. Nous avons toujours pu trouver des solutions, soit en demandant des exceptions de licence aux développeurs concernés, soit en remplaçant le code lorsque les problèmes sont identifiés.
Là je parle surtout de code, c'est le domaine que je connaît mieux.
Ici aussi les compromis sont différents selon les raisons qui poussent à rejeter les contributions par LLM. Si c'est pour des craintes sur le droit d'auteur, il faut une application assez stricte. Si c'est la peur d'être innondées de contributions générées mal fichues, il suffit probablement de traiter les cas les plus évidents ou aucun effort humain n'a été fait. Si c'est pour des raison politiques, il faut accepter que le projet affiche une orientation politique à ce sujet et soit prêt à la défendre (dans la mesure de ses moyens). Et cette orientation peut aussi être extrême ou nuancée.
Enfin pour le scrapping: j'ai pris cet exemple parce que c'est ce qui m'impacte le plus directement. Mais en fait le propos est beaucoup plus général. Pour chaque prompt envoyé à un LLM, derrière il y a non seulement des ressources matérielles (électricité, eau, on en a déjà parlé) mais en fait il y a aussi des gens qui travaillent. Que ce soit pour garder l'internet en état de marche et les sites accessibles, mais aussi pour produire des données d'entraînement de qualité, et encore derrière des gens qui font de la classification de données, de l'entraînement de modèles, etc. Une grande partie de tout ça est très peu ou pas du tout valorisée, et le LLM permet d'oublier et d'invisibiliser toutes ces personnes. C'est une forme d'exploitation d'humains, rendue acceptable par une jolie interface facile à utiliser. On retrouve là un motif de la vente en ligne façon Amazon, des Uber et autres. On te fait coire que c'est de la technologie qui travaille pour toi, mais en fait il y a des humains derrière. On fait en sorte que tu ne communiques pas avec eux comme ça ils peuvent pas se plaindre. Je n'ai pas envie que mes contributions et le temps que je passe à faire des trucs avec des ordinateurs serve à ça. Même dans le cas bizarre où au final, l'humain à l'autre bout du truc, c'est moi qui essaie de régler les problèmes de scrapping sur mon serveur.
Ceci étant dit, difficile d'échapper à tout ça sans faire des compromis difficiles comme abandonner certains logiciels. Finalement, le choix est là. Effectivement, parfois ce sera la réponse réaliste mais difficile à avaler. Parfois ce sera la position militante, active ou juste de principe. Parfois on a juste pas les moyens de lutter face à un truc aussi gros. Je sais déjà que je n'ai pas envie de contribuer à des projets utilisant ces outils. Je suis embêté quand il s'agit de choses dans lesquelles j'ai investi beaucoup de temps (dans mon cas le plus gros exemple c'est WebKit, dont je maintiens une version pour Haiku depuis plus de 10 ans). Je ne suis pas sûr de vouloir prendre une position plus extrême ou je refuse même d'utiliser des logiciels développés avec l'aide de LLM (de la même façon que j'utilise des logiciels non libres et qu'il m'arrive même d'en écrire aussi).
Et donc, n'ayant pas de position pour moi-même sur ce point, je me garderais bien de donner un avis précis sur les limites à mettre au sein de Khaganat. Je crois que pour moi ce qui est important, c'est que la question soit débattue sous cet angle là, plutôt que sur, par exemple, la qualité du travail produit par les LLM ou avec leur aide.
Dernier message par Zatalyz - Hier à 14:26:56
Cliquez pour afficher le message
IRIS est effectivement sympa. Pas lojban mais très chouette !
Dernier message par Zatalyz - Hier à 14:23:46
Cliquez pour afficher le message
Il me semble aussi important de voir "où" l'IA nous impacte et ce qu'on en fait.
Il y a des parties, c'est facile, et d'autres où ça pose plus de questions (sans que les réponses possibles soient bien satisfaisantes ou réalistes à mon goût).
Ce que liste Pulkomandy me semble une base, je reprends un peu :
- Usage de LLM pour générer du contenu "final" pour Khaganat : définitivement pas envisageable, pour toutes les bonnes raisons évoquées jusque là. Est-ce qu'on est toutes d'accord sur le sujet ? Je crois...
- Mais il y a aussi les aspects "WIP" ; en effet, on a pu utiliser un peu les LLM pour compenser des manques de compétences en interne. Qu'il s'agisse de générer des images pour avoir une idée de la direction artistique, ou d'essayer de comprendre d'obscurs points de code quand personne sur Krypte n'est apte à répondre. Je ne défendrais pas que c'est "bon" et je pense que nous devons veiller à nous passer de cela, mais la tentation est parfois grande de débloquer en utilisant ce genre d'outil. Mais c'est une position qui est plus facile à avoir quand "tout va bien". Je pense qu'il faut vraiment outiller le projet (et nos membres) pour qu'on puisse justement limiter ce genre d'usage, et préciser les lignes rouges (pas de vibe coding, pas d'illustrations LLM, on est d'accord). C'est peut-être là que notre charte "(non)-usage de l'IA" sera la plus à affiner. Par contre, ne nous leurront pas, on n'est pas dans le dos de chacun, on ne peux pas savoir quel produit final a été permis en partie parce qu'un LLM, à un moment, a pointé la bonne piste dans une doc labyrinthique et obscure. Et je plaide coupable ; en tant que sysadmin, je me suis parfois fait expliquer des concepts par un LLM quand je ne comprenais rien à la doc et que les réponses des humains se bornaient à "mais utilise X au lieu de Y, et non je n'avouerais pas que je ne sais pas répondre à ta question et je vais plutôt te faire perdre du temps sur un outil qui ne répond pas à ta problématique". Pour autant je sais aussi que plus que jamais, il faut travailler à renforcer l'entraide et l'apprentissage entre humains. Et outiller les humains en question à savoir échanger et communiquer...
- Les dépendances : il faut de toute façon qu'on les documente, et à présent cela viendra avec "quelle est la politique IA de ces projets". Cela demande une veille, car il va y avoir des différences entre les dépendances qu'on peut virer, celles qui sont hors de notre portée (Blender, ce n'est pas négociable...), et aussi de voir à quel point c'est contaminé : il y a une différence entre un projet vibe-codé par des humains qui n'y connaissent rien, et accepter de corriger une faille de sécurité remontée lors d'un audit de code par LLM. Mais ça reste un "yakafokon", car on n'a déjà pas une page sur le wikhan listant toutes nos dépendances sur notre ecosystème... et vu qu'on gère nous-même pas mal de trucs, ça en fait, des logiciels. Pulkomandy résume sinon le problème principal : les capacités humaines à se passer de projets où l'IA est trop présente.
- Les contributions mineures : on aura des gens, à un moment, qui nous proposerons des travaux permis par les LLM. Si certains seront faciles à détecter/refuser (non, pas de roman Khaganat par Deepseek, ni d'illustrations sur les mugs), d'autres peuvent être dans des zones plus complexes à trancher (les bugs impactant la sécurité, en particulier), sans parler de savoir si c'est du travail de bot et à quel pourcentage. Je ne sais pas du tout comment gérer ça. Je ne sais déjà pas pour l'écrit (qui est ma vraie compétence) : j'ai vu des gens partager sur forum leurs histoires en bonne part rédigée par LLM, et je ne l'ai détecté que parce que j'ai fait de mon côté des tests avec les LLM et que je repère assez bien les tics de langage (y compris des machines). Et on ne peux pas accuser "comme ça" les gens d'utiliser des LLM, c'est une pratique qui tends à dégoûter des innocents (les gens qui n'en utilisent pas et s'en font accuser, cessent de créer, ce qui est le pire scénario dans notre logique). Par ailleurs, le fait qu'il y ait un jugement moral sur l'usage de l'IA va pousser certaines personnes à cacher leur usage, ce qui va avec une baisse de confiance au sein de la communauté, et on finit par avoir des problèmes humains, bien plus que des problèmes d'IA.
- Le scrapping par les bots. Ça concerne les sysadmins, mais c'est effectivement questionnant, pas juste côté ressources mais aussi côté éthique. Je bosse en pointillé depuis 2 ans pour limiter ce scrapping, il n'est évidement pas question de se faire pourrir les ressources serveurs par le capitalisme. Mais je suis aussi un peu ambivalente : quitte à ce qu'ils pillent le monde pour leur corpus, j'aimerais bien leur faire intégrer des données alternatives (ce qu'est Khaganat entre autre), histoire qu'ils ne racontent pas que des récits blancs cishet capitalistes
Notez que je m'en fout qu'on se fasse "piller" : à mort la propriété intellectuelle !!! (mais vous avez le droit d'avoir un autre avis, et puis j'aimerais quand même que tout reste dans les communs).
- Il y a sans doute d'autres usages à la limite, que je n'ai pas vu, et si vous en voyez, listez
Quoi qu'il en soit, le sujet a vraiment besoin d'être traité, et qu'on définisse nos positionnements actuels. Mais ça ne va pas être simple.
Faut vraiment que je lise tous les liens, c'est utile de lire ce que font les autres projets, mais j'avoue que pour le moment j'ai pas encore fait.
Il y a des parties, c'est facile, et d'autres où ça pose plus de questions (sans que les réponses possibles soient bien satisfaisantes ou réalistes à mon goût).
Ce que liste Pulkomandy me semble une base, je reprends un peu :
- Usage de LLM pour générer du contenu "final" pour Khaganat : définitivement pas envisageable, pour toutes les bonnes raisons évoquées jusque là. Est-ce qu'on est toutes d'accord sur le sujet ? Je crois...
- Mais il y a aussi les aspects "WIP" ; en effet, on a pu utiliser un peu les LLM pour compenser des manques de compétences en interne. Qu'il s'agisse de générer des images pour avoir une idée de la direction artistique, ou d'essayer de comprendre d'obscurs points de code quand personne sur Krypte n'est apte à répondre. Je ne défendrais pas que c'est "bon" et je pense que nous devons veiller à nous passer de cela, mais la tentation est parfois grande de débloquer en utilisant ce genre d'outil. Mais c'est une position qui est plus facile à avoir quand "tout va bien". Je pense qu'il faut vraiment outiller le projet (et nos membres) pour qu'on puisse justement limiter ce genre d'usage, et préciser les lignes rouges (pas de vibe coding, pas d'illustrations LLM, on est d'accord). C'est peut-être là que notre charte "(non)-usage de l'IA" sera la plus à affiner. Par contre, ne nous leurront pas, on n'est pas dans le dos de chacun, on ne peux pas savoir quel produit final a été permis en partie parce qu'un LLM, à un moment, a pointé la bonne piste dans une doc labyrinthique et obscure. Et je plaide coupable ; en tant que sysadmin, je me suis parfois fait expliquer des concepts par un LLM quand je ne comprenais rien à la doc et que les réponses des humains se bornaient à "mais utilise X au lieu de Y, et non je n'avouerais pas que je ne sais pas répondre à ta question et je vais plutôt te faire perdre du temps sur un outil qui ne répond pas à ta problématique". Pour autant je sais aussi que plus que jamais, il faut travailler à renforcer l'entraide et l'apprentissage entre humains. Et outiller les humains en question à savoir échanger et communiquer...
- Les dépendances : il faut de toute façon qu'on les documente, et à présent cela viendra avec "quelle est la politique IA de ces projets". Cela demande une veille, car il va y avoir des différences entre les dépendances qu'on peut virer, celles qui sont hors de notre portée (Blender, ce n'est pas négociable...), et aussi de voir à quel point c'est contaminé : il y a une différence entre un projet vibe-codé par des humains qui n'y connaissent rien, et accepter de corriger une faille de sécurité remontée lors d'un audit de code par LLM. Mais ça reste un "yakafokon", car on n'a déjà pas une page sur le wikhan listant toutes nos dépendances sur notre ecosystème... et vu qu'on gère nous-même pas mal de trucs, ça en fait, des logiciels. Pulkomandy résume sinon le problème principal : les capacités humaines à se passer de projets où l'IA est trop présente.
- Les contributions mineures : on aura des gens, à un moment, qui nous proposerons des travaux permis par les LLM. Si certains seront faciles à détecter/refuser (non, pas de roman Khaganat par Deepseek, ni d'illustrations sur les mugs), d'autres peuvent être dans des zones plus complexes à trancher (les bugs impactant la sécurité, en particulier), sans parler de savoir si c'est du travail de bot et à quel pourcentage. Je ne sais pas du tout comment gérer ça. Je ne sais déjà pas pour l'écrit (qui est ma vraie compétence) : j'ai vu des gens partager sur forum leurs histoires en bonne part rédigée par LLM, et je ne l'ai détecté que parce que j'ai fait de mon côté des tests avec les LLM et que je repère assez bien les tics de langage (y compris des machines). Et on ne peux pas accuser "comme ça" les gens d'utiliser des LLM, c'est une pratique qui tends à dégoûter des innocents (les gens qui n'en utilisent pas et s'en font accuser, cessent de créer, ce qui est le pire scénario dans notre logique). Par ailleurs, le fait qu'il y ait un jugement moral sur l'usage de l'IA va pousser certaines personnes à cacher leur usage, ce qui va avec une baisse de confiance au sein de la communauté, et on finit par avoir des problèmes humains, bien plus que des problèmes d'IA.
- Le scrapping par les bots. Ça concerne les sysadmins, mais c'est effectivement questionnant, pas juste côté ressources mais aussi côté éthique. Je bosse en pointillé depuis 2 ans pour limiter ce scrapping, il n'est évidement pas question de se faire pourrir les ressources serveurs par le capitalisme. Mais je suis aussi un peu ambivalente : quitte à ce qu'ils pillent le monde pour leur corpus, j'aimerais bien leur faire intégrer des données alternatives (ce qu'est Khaganat entre autre), histoire qu'ils ne racontent pas que des récits blancs cishet capitalistes
Notez que je m'en fout qu'on se fasse "piller" : à mort la propriété intellectuelle !!! (mais vous avez le droit d'avoir un autre avis, et puis j'aimerais quand même que tout reste dans les communs). - Il y a sans doute d'autres usages à la limite, que je n'ai pas vu, et si vous en voyez, listez

Quoi qu'il en soit, le sujet a vraiment besoin d'être traité, et qu'on définisse nos positionnements actuels. Mais ça ne va pas être simple.
Faut vraiment que je lise tous les liens, c'est utile de lire ce que font les autres projets, mais j'avoue que pour le moment j'ai pas encore fait.
Dernier message par pulkomandy - Hier à 10:58:13
Cliquez pour afficher le message
Bonjour,
Je ne suis le projet que de loin, donc mon avis personnel vaut ce qu'il vaut.
Je vois qu'il y a 2 problématiques qui se dégagent:
- D'un côté l'utilisation de LLM dans le projet (que ce soit pour générer des images, du code, ou quoi que ce soit d'autre): Inkscape fait en effet un assez bon résumé de la situation. C'est néfaste éthiquement et politiquement, c'est généralement mauvais à moyen techniquement, et je peux ajouter que accepter les contributions générées par des LLM, c'est s'exposer à une grande quantité de contributions mal fichues qui vont demander plus de travail pour mettre les choses "au propre" que de faire directement les choses soi-même. Mais en fait le débat sur cette dernière question me semble un peu inutile: les raisons éthiques et politiques sont, comme vv l'a indiqué, largement suffisantes pour rejeter le truc, pas la peine d'aller plus loin, même si ça donnait de bons résultats ce serait quand même une mauvaise idée.
- D'un autre côté, il y a les dépendances à d'autres projets. Et là, on est déjà dans une situation plus difficile. Blender et Linux ont été mentionnés, mais il y a tout un ensemble d'autres outils, pas tous facilement remplaçables (à moins de rester bloqué sur des anciennes versions?). C'est là que il y a un vrai problème à résoudre: soit accepter la situation de façon générale et continuer à autoriser ces outils, soit seulement certains après avoir confirmé qu'il n'y a pas d'alternative, soit aucun quitte à mettre beaucoup d'énergie pour trouver ou construire un remplacement. C'est une question qui se pose aussi quand il s'agit de choisir un logiciel libre vs un propriétaire, ou un protocole ouvert vs un qui est maintenu par une seule entreprise.
Et c'est là que je ne m'estime pas pertinent pour intervenir puisque je n'ai pas les mains dans les projets correspondants. Peut-on remplacer Blender ou Godot par autre chose? Aucune idée. Est-ce que Linux doit rester parmi les systèmes d'exploitation sur lesquels le client peut fonctionner? Même question pour Windows? Quel compromis êtes-vous prêts à faire?
Personnellement, j'échappe à peu près à ces problèmes pour l'instant. Je suis cependant exposé (pour l'hébergement de ma forge logicielle personelle) à un traffic très important de bots qui scannent tout n'importe comment et qui sont au moins en partie lié à l'entraînement et l'utilisation de LLM. Cela me consomme un peu de temps et d'énergie pour maintenir ce serveur en ligne. Je dois également questionner certains des logiciels que j'utilise et auxquels je contribue, et peut-être jeter des dizaines d'année de travail (par exemple sur le moteur de rendu web WebKit, dans lequel l'utilisation de code généré par LLM semble admise maintenant). Je ne sais pas encore ce que je vais faire. Je suis intéressé de lire une discussion sur ce sujet, en tout cas.
Je ne suis le projet que de loin, donc mon avis personnel vaut ce qu'il vaut.
Je vois qu'il y a 2 problématiques qui se dégagent:
- D'un côté l'utilisation de LLM dans le projet (que ce soit pour générer des images, du code, ou quoi que ce soit d'autre): Inkscape fait en effet un assez bon résumé de la situation. C'est néfaste éthiquement et politiquement, c'est généralement mauvais à moyen techniquement, et je peux ajouter que accepter les contributions générées par des LLM, c'est s'exposer à une grande quantité de contributions mal fichues qui vont demander plus de travail pour mettre les choses "au propre" que de faire directement les choses soi-même. Mais en fait le débat sur cette dernière question me semble un peu inutile: les raisons éthiques et politiques sont, comme vv l'a indiqué, largement suffisantes pour rejeter le truc, pas la peine d'aller plus loin, même si ça donnait de bons résultats ce serait quand même une mauvaise idée.
- D'un autre côté, il y a les dépendances à d'autres projets. Et là, on est déjà dans une situation plus difficile. Blender et Linux ont été mentionnés, mais il y a tout un ensemble d'autres outils, pas tous facilement remplaçables (à moins de rester bloqué sur des anciennes versions?). C'est là que il y a un vrai problème à résoudre: soit accepter la situation de façon générale et continuer à autoriser ces outils, soit seulement certains après avoir confirmé qu'il n'y a pas d'alternative, soit aucun quitte à mettre beaucoup d'énergie pour trouver ou construire un remplacement. C'est une question qui se pose aussi quand il s'agit de choisir un logiciel libre vs un propriétaire, ou un protocole ouvert vs un qui est maintenu par une seule entreprise.
Et c'est là que je ne m'estime pas pertinent pour intervenir puisque je n'ai pas les mains dans les projets correspondants. Peut-on remplacer Blender ou Godot par autre chose? Aucune idée. Est-ce que Linux doit rester parmi les systèmes d'exploitation sur lesquels le client peut fonctionner? Même question pour Windows? Quel compromis êtes-vous prêts à faire?
Personnellement, j'échappe à peu près à ces problèmes pour l'instant. Je suis cependant exposé (pour l'hébergement de ma forge logicielle personelle) à un traffic très important de bots qui scannent tout n'importe comment et qui sont au moins en partie lié à l'entraînement et l'utilisation de LLM. Cela me consomme un peu de temps et d'énergie pour maintenir ce serveur en ligne. Je dois également questionner certains des logiciels que j'utilise et auxquels je contribue, et peut-être jeter des dizaines d'année de travail (par exemple sur le moteur de rendu web WebKit, dans lequel l'utilisation de code généré par LLM semble admise maintenant). Je ne sais pas encore ce que je vais faire. Je suis intéressé de lire une discussion sur ce sujet, en tout cas.
Dernier message par FrancoisA - Hier à 06:52:04
Cliquez pour afficher le message
Vu que l'on commence à parler des versions Alpha du client développé en Godot 4.x et du serveur développé en Rust, il faudrait peut-être commencer à réfléchir à la répartition du support par plateforme supportées.
Un groupe de personnes pour le support GNU/Linux.
Un autre pour le support Windows. ...
Un groupe de personnes pour le support GNU/Linux.
Un autre pour le support Windows. ...
Dernier message par FrancoisA - Hier à 06:47:44
Cliquez pour afficher le message
Actuellement, Gajim fonctionne de nouveau correctement.
Les problèmes du serveur Jabber ayant été résolu.
Les problèmes du serveur Jabber ayant été résolu.
#8
Annonces / Versions Alpha
Cliquez pour afficher le message
Comme on commence à parler des versions Alpha du client développé en Godot et du serveur développé en Rust, il serait bon de réfléchir à la chaîne classique : Mainteneurs, Testeurs, Support.
Peut-être dans un premier temps se limiter aux versions GNU/Linux (paquets DEB amd64 et RPM amd64), non ?
Peut-être dans un premier temps se limiter aux versions GNU/Linux (paquets DEB amd64 et RPM amd64), non ?
Dernier message par FrancoisA - 29 Avril 2026 à 16:57:05
Cliquez pour afficher le message
OpenNel a été abandonné par Khaganat en 2023 pour être remplacé par un nouveau développement du serveur en Rust justement pour ne pas se traîner l'historique lié au choix technologique de initiaux de Nevrax.
Dernier message par alcyone - 29 Avril 2026 à 16:31:12
Cliquez pour afficher le message
Je te réponds ici osquallo :
Pour moi ce n'est qu'une facette du sujet prise isolément, qui se retrouve dans l'argument classique vu plus haut de l'outil neutre dont seule l'utilisation (le "côté humain") compte.
J'ai indiqué que la neutralité de l'outil n'avait aucun sens, ça ne veut bien sûr pas dire que son utilisation n'est pas à prendre en compte, elle ne va cependant pas sans tenir compte de l'outil lui même dont sa conception non neutre par essence influence l'usage.
Et en parlant d'influence, c'est littéralement la technologie la plus financée à l'heure actuelle, elle se développe et se répand à une vitesse exceptionnelle et son impact sur la société n'a pas d'équivalent sur son échelle de temps et c'est loin d'être terminé.
L'autre point que cela m'évoque, c'est la fameuse fable du colibri à la sauce Pierre Rahbi dont la maxime est d'isoler un problème sociétal à la responsabilité individuel (curieusement, les versions originales n'auraient pas cet dénouement). Certes chacun peut faire sa part mais la société est une entité en elle-même sur laquelle en agissant seul pour soi-même, l'influence est limitée et un problème de société réclame plutôt des actions collectives.
On pourrait épiloguer plus loin sur le pouvoir de nuisance individuel qu'offre la possibilité d'enrichissement illimité du capitalisme au détriment des autres et son rôle dans l'avènement d'une telle technologie mais on s'éloigne quand même pas mal du sujet qui reste le positionnement de Khaganat.
Citationmer. 29 avril 2026 15:53:03 - osquallo: le probleme c'est surtotu du coter de l'humain et tant qu'on se dedouiane sur les outils pour pas avoir a ce changer soi meme rien ne changera
Pour moi ce n'est qu'une facette du sujet prise isolément, qui se retrouve dans l'argument classique vu plus haut de l'outil neutre dont seule l'utilisation (le "côté humain") compte.
J'ai indiqué que la neutralité de l'outil n'avait aucun sens, ça ne veut bien sûr pas dire que son utilisation n'est pas à prendre en compte, elle ne va cependant pas sans tenir compte de l'outil lui même dont sa conception non neutre par essence influence l'usage.
Et en parlant d'influence, c'est littéralement la technologie la plus financée à l'heure actuelle, elle se développe et se répand à une vitesse exceptionnelle et son impact sur la société n'a pas d'équivalent sur son échelle de temps et c'est loin d'être terminé.
L'autre point que cela m'évoque, c'est la fameuse fable du colibri à la sauce Pierre Rahbi dont la maxime est d'isoler un problème sociétal à la responsabilité individuel (curieusement, les versions originales n'auraient pas cet dénouement). Certes chacun peut faire sa part mais la société est une entité en elle-même sur laquelle en agissant seul pour soi-même, l'influence est limitée et un problème de société réclame plutôt des actions collectives.
On pourrait épiloguer plus loin sur le pouvoir de nuisance individuel qu'offre la possibilité d'enrichissement illimité du capitalisme au détriment des autres et son rôle dans l'avènement d'une telle technologie mais on s'éloigne quand même pas mal du sujet qui reste le positionnement de Khaganat.






