Je me rend compte de la fragilité de l’auto-hébergement. 1 mois que mon matos est en SAV, et donc autant de temps avec du contenu qui n’est plus dispo…
Mais je ne connais pas de solution (même GAFAM) pour répliquer facilement des sites de 10Go remplis de vidéo et slides…

Je vais préciser un peu plus le besoin, vu que ce n’est pas clair pour tout le monde, et que quasiment tout le monde me fait les mêmes propositions qui ne répondent pas au problème 😂

La persistence des données est déjà réglée. Étant auto-hébergé, je n’ai même pas besoin de réplication sinon le RAID classique. Le disque est là devant moi sur le bureau (malgré qu’un des 2 est en SAV) avec les données et j’ai des backups partout de toute façon.
Donc S3, backblaze ou syncthing ne serviront à rien ici.

Le problème est de pouvoir remonter les services présentant ces données. Donc les nginx, prosody, ou autres. À la limite le non web est un non problème ici.
Il faudrait pouvoir relancer ces services ailleurs, vu que chez soi on n’a plus le matos pour (mais les données si).

Les solutions à base de stockage custom (S3 ou autres) sont aussi problématiques parce que supposent de concevoir un site spécifique (et donc certainement plus statique) pour gérer le cas du fallback.
Mes pages statiques de confs.imirhil.fr (qui est le seul service que je n’ai pas pu remonter rapidement et à coût négligeable) ne pourraient plus servir en cas de passage sur S3.

DRDB ou proxmox posent la question de l’overkill. Pourquoi réclamer 400€ de matos supplémentaire et des configs à s’arracher les cheveux pour des services qui vont être up 99.999% du temps ? Et dont le PRA se résume dans les 0.001% restant à un rsync… 🤔

Théoriquement parlant, quasiment tous mes services sont remontables avec n’importe quelle machine en 3 commandes. C’est même comme ça que je sélectionne mes softs. Si ça n’est pas possible, c’est que c’est trop compliqué pour de l’auto-hébergement.

La question est du coup plutôt de pouvoir trouver du matos/ressource à dispo auprès de la communauté pour être capable de pallier temporairement à un défaut matériel. Sans avoir à sortir la CB, sans complexité supplémentaire.

Ou encore dit autrement, dans la communauté qui fait de l’auto-hébergement, il y a forcément des ressources inutilisées quelque part. C’est moche de ne pas pouvoir s’en servir temporairement pour pallier aux problèmes d’un autre pixel 😃

Il y a @eleveurornitho1 qui vient de me faire trouver la formulation exacte de ce que je cherche.
En fait le but est de palier à une panne d’un « nœud » auto-hébergé en n’utilisant que des ressources compatibles avec l’auto-hébergement, et présentes sur d’autres « nœuds » auto-hébergés. 😊

Ou en reprenant celle de @davlgd : de l’auto-hébergement décentralisé et collaboratif 😂

Un espèce de fediverse avec un gros bouton « je suis dans la panade, t’as pas un coin de serveur pour moi » qui te permet de choper un petit coin de résal et un shell pour remonter tous tes bidons comme un grand !

HugoPoi
Suivre

@aeris dans les faits je peux te livrer une VM sur mon NAS en 5 minutes, le problème c'est mettre en place un machin pour pouvoir partager mon ip public les ports que j'utilisent avec tes besoins, la solution serait peut-etre des ips public fournit par un op de la ffdn montable par vpn. Ca commence a etre compliqué. La solution est surrement de l'ip v6, car je peut potentiellement t'en attribué une public chez moi faut que je creuse la question.

@aeris @hugopoi j'suis sûr qu'avec HAProxy en mode TCP et des ACL bricolées on peut s'en sortir…

@breizh avec haproxy tu peux gérer du routage de SNI en mode virtualhost ?

@hugopoi Pour être sûr de pas avoir de quiproquo : si tu parles de la gestion de certificats SSL différents en fonction du Host renseigné en HTTP, alors oui. Très facilement même :

```
frontend https
bind *:443 ssl crt /chemin/du/dossier/contenant/tous/les/certificats/
```

Tu peux évidemment donner plusieurs dossiers, ou expliciter le chemin de chaque certificat. Les certificats doivent être tout en un (clef privée + certif + intermédiaires), et unique en fonction des alternate name (ne pas laisser traîner les vieux certifs, parce que HAProxy prends le premier qu'il trouve qui correspond au FQDN demandé, valide ou non).
@hugopoi (évidemment, il y a d'autres confs à ajouter suite à ces deux lignes, il faut que le frontend (qui porte le nom que tu veux, pas forcément https) soit en mode http et non TCP).

@breizh ok c'est bien ce que je voulais savoir mais es que ça gère sans que haproxy gere les certificats mais la partie SNI ? car avec la config la ça veut dire que haproxy gère toute la partie TLS

@hugopoi Tu voudrais que le SNI marche sans que HAProxy gère le TLS ? Je suppose que c'est faisable, mais bon, c'plus simple de dire à HAProxy de gérer tout le TLS, ça juste marche.

@breizh Non car dans mon cas j'ai pas envie de gérer les certificats ssl de @aeris du coup avec haproxy c'est possible de faire du SSL routing. Du coup je mettre a dispo une VM sur mon reseau et il me faut juste la liste des hostname hebergé dans la VM et c'est good. donc ça peut etre une solution envisageable pour du HTTPS et peut-etre du SMTPS aussi a tester.

Inscrivez-vous pour prendre part à la conversation
HugoPoi's Instance

I'm a french guy alone here.