Bwarf :white_check_mark: is a user on octodon.social. You can follow them or interact with them if you have an account anywhere in the fediverse. If you don't, you can sign up here.

@Angerenoir yup, moi j'ai eu celui-là, et à priori ça permet de mélanger les TL locale de plusieurs instances octodon.social/media/NHkIZ4JIm

@Rataflup oui c'est celui la je sais pas ce qu'il fait mais il est bienvenue :joy: :joy:

@Angerenoir @gled
Comme l'a confirmé Gled : ce bot d'une autre instance s'abonne à toi -> sa TL perso va se retrouver diffusée sur son instance.

C'est une façon de mélanger les posts entre des instances dans les TL locales

@Angerenoir @gled
D'après son @ : le même que Gled ! mastodon.host

@Angerenoir @Rataflup exact ! code dispo sur GitHub, dites moi si vous avez des suggestions

@gled

Je sais pas lire le Ruby :sob:
(ou pas encore, on verra)

@Angerenoir

Bwarf :white_check_mark: @Rataflup

@gled @Angerenoir
toutes les sources du /app sont en .rb !

(j'ai choppé la branche master sur github pourtant)

· Web · 0 · 0

@Angerenoir @gled
ou alors j'ai mal vu. Mais y'a du Ruby partout

@Rataflup @Angerenoir
je pense que tu confonds le code de Mastodon qui est en effet en ruby avec du nodejs, et le code du bot qui lui est en python ;)

@gled @Rataflup il y a moyen qu'on puisse choisir un fil avec des instances choisi par nous?

@Angerenoir @Rataflup à part créer ton instance perso et ne fédérer que sur les instances que tu veux, je ne vois pas vraiment...

@gled Ah ! oui en effet, !
M'en fout de comment est codé le bot ! (tant qu'il fait bien son boulot)

Je me posais la question : "comment une instance peut crasher ?"
est-ce qu'il y a un mécanisme de répartition prévu pour un cluster derrière une URL (répartition de charge, tout ça),
ou est-ce que c'est du gros bourrin : une instance = 1 serveur
?

@Rataflup ça dépends de ton admin et de comment il as monté son service :) ici sur mastodon.host on es sur un seul serveur, mais il y en as 2 de plus prêt à déployer si la charge le demande.

@gled ah donc y' moyen de monter des machines en // pour servir la même instance !

(j'ai pas lu toutes les docs hein, j'ai cherché vite fait sur gogole mais sans résultat)

donc c'est prévu de pouvoir faire tourner une instance donnée sur X serveurs, et si y'en a un qui crashe : bah pas grave, les autres prennent le relai

@Rataflup c'est du web, donc ça scale et s'archi comme du web.

tu peux avoir un load balancer frontal, de multiples serveurs postgresql/redis, de multiples serveurs "backend" etc...

C'est 'juste' une webapp ;)

@gled justement : ce n'est pas une bête webapp : c'est un front-end qui bazarde des messages dans un back-end qui dispatche sur les "trucs" (trucs = instances ? noeud ? )

Si N serveurs font chacun des trucs dans leur coin, c'est nawak.
Mais s'il y a un point central de données (la BdD Postgre) alors ça prend du sens

@Rataflup
En simplifiant ça donne:
frontend <-API-> backend:
<-> queues for async jobs ( sidekiq )
<-> database

@Rataflup je n'ai pas dit bête, j'ai dit simple :)

Simple dans le sens ou c'est plutôt modulaire à scale en fonction du workload.