Aller au menu du forum Aller au contenu du forum Aller à la recherche dans le forum
Logo Khaganat
Menu principal

Derniers messages

Dernier message par deed - 16 Octobre 2018 à 10:10:38
Cliquez pour afficher le message
GITEA :
POUR:
1/c est léger
2/c est facile à installer (j ai réussi rapidement , moi , le noobs
3/c est facile de entretient
4/c est léger
5/Tycho l utilise :p
6/c est rapide à mettre à jour
7/c est facile

CONTRE:
1/ Il ne s auto heberge pas
2/le CI est manuelle
3/blablabla dit Dracula :p

Merci
Dernier message par Stan` - 03 Octobre 2018 à 10:12:28
Cliquez pour afficher le message
Par les temps qui courent la sécurité est de plus en plus importante et c'est la raison pour laquelle je crée ce Thread.
Pour l'instant on a un système qui a été désigné à l'époque ou les certificats HTTPS coutaient très chers, et qui offrait
une sécurité relative à l'époque. @Tycho à rendu ça un peu plus robuste en passant de DES à Sha-512. Le souci de la
méthode actuelle est qu'elle requiert un travail supplémentaire d'authentification au niveau du client, que Godot ne
supporte pas nativement.

L'idée serait donc de déporter tout ce travail de hashage et de salage sur le serveur, et d'envoyer les identifiants en clair
via HTTPS. C'est une solution raisonnable, mais ce n'est pas la plus sécurisée. Le hashage passerait aussi d'une méthode
SHA-512 à Argon2 qui est plus récent, et serait plus robuste.

Link Mauve parlait de passer par le processus de SCRAM qui est utilisé par XMPP, pour chiffrer et sécuriser nos communication
ce qui demanderait un travail supplémentaire. Il semblerait cependant qu'il y ait moyen d'avoir le support natif dans une version
ultérieure, les briques étant déjà là dans le code CPP. (Via mbedTLS)

Dans la mesure du possible pour des procédures aussi simples il serait idéal d'éviter de passer par des plugins et des librairies
externes pour des soucis de compatibilité cross-plateform.

Dans un second temps pour le chiffrement des paquets UDP (qui synchronisent tous les clients) il serait bien de définir un plan
de sécurité.

Voilà j'aurais aimé avoir votre avis sur les deux questions (Login, et communications). La cryptographie n'est pas mon domaine
du tout donc je vous prie de m'excuser si j'ai écrit des horreurs un peu plus haut.

J'en profite pour poster le schéma de fonctionnement actuel




Dernier message par neodarz - 31 Août 2018 à 10:35:39
Cliquez pour afficher le message
En effet google peut les aider !

Merci pour l'ancien robots.txt !
Dernier message par Zatalyz - 31 Août 2018 à 10:28:32
Cliquez pour afficher le message
Les robots spammeurs s'en moquent, mais ils trouvent le site plus facilement si google les aide... et google respecte publiquement le robots.txt :)

Le robots.txt est celui par défaut (plus ces deux modifs), je te le met ici si besoin :

# See http://www.robotstxt.org/robotstxt.html for documentation on how to use the robots.txt file
#
# To ban all spiders from the entire site uncomment the next two lines:
User-Agent: *
Disallow: /

# Add a 1 second delay between successive requests to the same server, limits resources used by crawler
# Only some crawlers respect this setting, e.g. Googlebot does not
# Crawl-delay: 1

# Based on details in https://gitlab.com/gitlab-org/gitlab-ce/blob/master/config/routes.rb, https://gitlab.com/gitlab-org/gitlab-ce/blob/master/spec$
User-Agent: *
Disallow: /autocomplete/users
Disallow: /search
Disallow: /api
Disallow: /admin
Disallow: /profile
Disallow: /dashboard
Disallow: /projects/new
Disallow: /groups/new
Disallow: /groups/*/edit
Disallow: /users
Disallow: /help

# Global snippets
User-Agent: *
Disallow: /s/
Disallow: /snippets/new
Disallow: /snippets/*/edit
Disallow: /snippets/*/raw

# Project details
User-Agent: *
Disallow: /*/*.git
Disallow: /*/*/fork/new
Disallow: /*/*/repository/archive*
Disallow: /*/*/activity
Disallow: /*/*/new
Disallow: /*/*/edit
Disallow: /*/*/raw
Disallow: /*/*/blame
Disallow: /*/*/commits/*/*
Disallow: /*/*/commit/*.patch
Disallow: /*/*/commit/*.diff
Disallow: /*/*/compare
Disallow: /*/*/branches/new
Disallow: /*/*/tags/new
Disallow: /*/*/network
Disallow: /*/*/graphs
Disallow: /*/*/milestones/new
Disallow: /*/*/milestones/*/edit
Disallow: /*/*/issues/new
Disallow: /*/*/issues/*/edit
Disallow: /*/*/merge_requests/new
Disallow: /*/*/merge_requests/*.patch
Disallow: /*/*/merge_requests/*.diff
Disallow: /*/*/merge_requests/*/edit
Disallow: /*/*/merge_requests/*/diffs
Disallow: /*/*/project_members/import
Disallow: /*/*/labels/new
Disallow: /*/*/labels/*/edit
Disallow: /*/*/wikis/*/edit
Disallow: /*/*/snippets/new
Disallow: /*/*/snippets/*/edit
Disallow: /*/*/snippets/*/raw
Disallow: /*/*/deploy_keys
Disallow: /*/*/hooks
Disallow: /*/*/services
Disallow: /*/*/protected_branches
Disallow: /*/*/uploads/

Dernier message par neodarz - 31 Août 2018 à 10:21:38
Cliquez pour afficher le message
En effet vu que c'est à nous, on s'en fiche. Il me semble que le fichier robots.txt de gitlab avant modifications était celui par défaut, si c'était pas le cas ça sera cool que tu le poses quelque part car je l'utilisais...

Et je peux aussi dire d'ignorer le fichier robots.txt, pas besoin de rajouter le nom du crawler dans le fichier robots.txt ça change pas grand-chose mise à part la propreté du système (et le respect des normes par la même occasion ^^).

Pour l'histoire des robots spammeur ils ignorent totalement l'existence du robots.txt donc bon...
Dernier message par Zatalyz - 31 Août 2018 à 10:01:05
Cliquez pour afficher le message
Le gitlab me gonfle très légèrement aux entournures ; son indexation interne n'est pas parfaite, mais son indexation par les robots externes est un peu trop bonne. Cela veut dire que des pages de projet gitlab se sont retrouvées mieux référencées que le reste du site dans certains moteurs de recherche ; j'hésitais sur le fait de le laisser ou non et accessoirement à retravailler les autres parties du site pour améliorer leur référencement (genre faire notre sitemap... un jour). Ça, ça semble réglé, au moins sur DDG ou sur un agrégateur comme Framabee : il est probable que les indexeurs aient jugé que gitlab était du bruit, et je ne peux pas leur donner tord. Par contre, ça a permis à des robots spammeurs de nous trouver... Si c'est pas référencé, ils nous embêtent moins, et vérifier le spam sur gitlab est insupportable. Bref, je vais mettre ceci :
User-Agent: *
Disallow: /


Mais cela peut te poser souci pour notre indexation interne. En principe tu peux simplement ignorer le robots.txt (c'est entre nous !), mais si ce n'est pas si simple, il me suffit de savoir quel est le nom du bot que je dois laisser passer, et je le mettrais dans le fichier.
Dernier message par neodarz - 18 Août 2018 à 17:25:05
Cliquez pour afficher le message
C'est déjà fait pour la partie documentation : https://khaganat.net/wikhan/fr:moteur_de_recherche :)
Dernier message par Zatalyz - 18 Août 2018 à 16:57:27
Cliquez pour afficher le message
Bonne nouvelle ça :)

L'aspect moche est effectivement secondaire ; passer par searx me semble une assez bonne idée parce que certains moteurs internes sont déjà très efficaces (dokuwiki pour ne pas le citer). Mais même si on fait tout passer via xapian, modifier le css n'est pas le plus compliqué. Enfin je dis ça mais quand on voit les soucis de mon dernier thème... bref en tout cas, ça fait un truc à tenter !

Si tu as le temps de commencer à documenter les particularités de l'installation, c'est super.
Dernier message par neodarz - 18 Août 2018 à 10:28:17
Cliquez pour afficher le message
Bon finalement j'ai trouvé un soft qui permet d'indexer et de faire des recherches sur ce qui à été indexé \o/

J'en ai checker plusieurs mais je suis tombé sur : https://xapian.org qui est toujours maintenu et qui est utilisé par des projets comme Debian. (Plus d'infos ici : https://xapian.org/users)

Il y as pas longtemps j'ai fait un dump du site nevrax.org et je viens de faire un test dessus : rapide et efficace :)

Bon l'interface est moche, il n'y presque pas de css, mais on peut brancher searx dessus pour faire le taf.

Y'a plus qu'a documenté tous ça car lors de l'installation sur archlinux il manquait des bouts...
Dernier message par Zatalyz - 10 Août 2018 à 21:53:10
Cliquez pour afficher le message
Oui, en effet, il faut aussi indexer ce qu'on trouve  :D

Si searx a déjà un truc, c'est cool ; je n'ai rien trouvé lors de mes recherches et sur l'IRC de Searx on m'a dit qu'il n'y avait rien, mais je ne sais pas trop quel était la validité de la personne qui m'a répondu. La solution a l'air bien complète, donc avec un peu de chance...

Vu que nuxru est réparé, je vais pouvoir doucement reprendre des tests, voir au moins comment intégrer ton travail actuel sur le nouveau site en django ; ça ferait déjà une belle avancée. Mais bon, j'avance pas vite  ^^
Licences Mentions légales Accueil du site Contact