Même souci qu’il y a 3 semaines, la coupure a eu lieu jeudi 30/05/2024, de 0h30 à 10h00 (09h30 de coupure).
Nous sommes désolés pour la gêne occasionnée.
Même souci qu’il y a 3 semaines, la coupure a eu lieu jeudi 30/05/2024, de 0h30 à 10h00 (09h30 de coupure).
Nous sommes désolés pour la gêne occasionnée.
Même souci qu’il y a 3 semaines, la coupure a eu lieu dimanche 26/05/2024, de 0h30 à 10h20 (10h de coupure).
Nous sommes désolés pour la gêne occasionnée.
Et oui ! Mais vu qu’on a décidé à notre précédente AG de décaler notre calendrier comptable pour s’aligner avec l’année civile, on c’était dit que refaire un AG vers mars serait une bonne idée ! Mais, les projets en cours nous occupants plus que prévu, nous voici en avril 😎
Le dimanche 23 avril 2024, nous étions donc une dizaine de personnes accueillis au Fuz, dans l’AERI à Montreuil (merci à elleux), réunies pour l’assemblée générale du Cloud Girofle. Merci à toutes les personnes qui étaient présentes ! Voilà ce qu’on s’est dit et quelques orientations pour l’année à venir 🐈.
L’AG comportait également une partie statutaire, l’occasion de valider le bilan moral et financier de l’association (ci-dessous)
Nous avons rencontré quelques difficultés, et c’est une activité qui s’est relevée plus chronophage que prévue, notamment sur obligation de vérifier que nos envois ne soient pas considérés indésirables. On améliore petit à petit nos outils de suivi. Mais on est super content des retours et de s’être lancés dans cette aventure !
En décembre on a du migrer tous les services d’un serveur (chif.fr) car un de ses disques montrait des signes de faiblesse. C’est la première fois que cela arrive à un des serveurs qu’on loue. Comme le serveur est un nœud de sortie pour les mails, il était important que l’on garde son IP; l’opération s’est révélée complexe (changement de disque complet, sans retour en arrière après le changement de disque). Cela nous a montré que nos sauvegardes fonctionnent bien pour la partie données, mais que la restauration du système était plus problématique. On a amélioré nos scripts en conséquence pour que ce soit plus facile dans le futur.
Le Cloud Girofle a démarré fin 2023 et début 2024 (après plusieurs mois de discussions) une mission de migration pour l’entreprise BL-Evolution. C’est un cabinet de conseil de l’économie sociale et solidaire qui accompagne des entreprises et des collectivités sur leur stratégies d’innovation et démarches RSE, Énergie, Climat et Biodiversité. Cette entreprise réuni aujourd’hui une centaine de salarié.e.s et prévoit d’augmenter dans les années à venir.
News 2024 (hors cadre de cette AG) : nous avons déjà migré plusieurs de leur services Google : mail, calendrier, contacts, hébergement de fichiers (vers Nextcloud) et prévoyons la migration prochaine de leur solution de vidéo-conférence (vers Jitsi) et leur salons de discussion (vers Mattermost)
Cette mission prend beaucoup de temps à l’équipe Racine et cela a un fort impact sur la dynamique de l’association, car le reste des projets sont au ralenti et des écarts se creusent avec le reste des personnes actives de l’association.
Le camps CHATON est un événement annuel pendant lequel les membres du collectifs (et les curieux.es) se réunissent. Cette année, il se tiendra du 11 au 14 juillet 2024 à l’Antenne Sévérac (44).
C’est un moment très sympathique. Ça ne parle que très peu de points techniques, mais plutôt des questions sur la politique du collectif.
Le programme et libre, et co-construit au début du camp. On a la possibilité de proposer des sujets.
Plus d’informations ici : https://forum.chatons.org/t/inscriptions-camp-chatons-2024/6013
Comment est-ce qu’on considère que quelqu’un est toujours adhérent ? Parce que nous sommes à prix libre et que nous n’avons aujourd’hui aucune obligation de communication, il nous est difficile de définir qui est adhérent.e ou non, et par conséquent de tenir un registre clair de nos utilisateurices, et nous de savoir quoi faire des données et services que nous hébergeons pour des personnes qui ne répondent plus à nos sollicitations depuis plus mois/années.
La proposition est de donner une obligation de communication annuelle (e.g. par email).
Dans les statuts actuels, on indique que les membres le sont par acceptation du règlement intérieur + participation/cotisation à prix libre.
On propose d’ajouter ça au règlement intérieur, qui ne nécessite pas de déclaration en préfecture et peut donc être modifié plus facilement.
Décision : on modifie le règlement intérieur pour définir cette nouvelle obligation de communication annuelle.
Décision : on modifie le règlement intérieur pour indiquer la période (1 an) après laquelle on se donne le droit de supprimer des données
Décision : Clarification : les utilisateurs qui utilisent les services à travers un collectif ne sont pas des adhérents
L’idée est de promouvoir et fournir des alternatives à Gmail.
Constat : il y a beaucoup d’alternatives « solides » pour partir de Google Drive, mais peu de solutions claires sur la partie Mail. ex : le service n’est par exemple pas présent dans la campagne de Framasoft.
On a eu un retour très favorable du collectif CHATONS
Max n’a pas eu beaucoup de temps dernièrement pour coordonner cette action.
Des services solides existent pour les mails, mais on trouve qu’ils manquent de communication.
La difficulté aujourd’hui c’est la gestion du temps. Il faudrait qu’on trouve quelqu’un.e pour faire de la gestion de projet.
Pourquoi pas faire un appel lors du camps CHATONS ? Bonne idée.
On s’était dit :
– prendre un moment pour lister les structures intéressées et un comité de pilotage
– se mettre d’accord pour les points qu’on veut mettre en avant
– passer par un presta pour gérer la campagne (et du coup trouver un budget)
On peut faire :
– un appel à participation auprès de nos membres pour demander si quelqu’un.e est motivé.
– se pointer une tête à une prochaine réunion CHATONS pour relancer un peu le sujet
– faire un post sur le forum CHATONS
Max et Pascale essaient de relancer la machine en binôme.
Le budget prévisionnel 2024 avait déjà été voté lors de l’AG précédente. Nous le re-présentons ici pour rappel.
Dépenses
Truc | Montant | Remarque |
Location de serveurs, etc | 2500 | Ajout de mutu3 |
Achat de matériel (serveurs) | 2000 | |
Communication/impressions | 300 | |
Campagne de communication | 5000 | Cofinancement chatons |
Salaires | 4000 | 2 mois temps plein |
Banque & co | 100 | |
Soutien aux logiciels/luttes | 3000 | 20% |
TOTAL | 16900€ |
Recettes
Truc | Montant | Remarque |
Cotisation des membres | 7000 | |
Prestation de service | 7500 | |
Don | 400 | |
(trésorerie) | 2000 | |
TOTAL | 16900€ |
A noter en 2024 : le recours rémunéré à Gab pour assurer le support BL + l’avance des frais du camp CHATONS
Hello hello,
Le 14 mai, Nous avons eu un souci avec des répondeurs automatiques qui ont décidé de taper la conversation à des adresses inexistantes, le tout en boucle et échangeant des centaines de messages par heure) ; bavards les robots 🤖.
Ce souci de configuration a déclenché un bannissement temporaire de notre serveur car il envoyait trop de mails. Ce bannissement a été réalisé par un de nos serveurs « relai ». Cela a bloqué l’envoi des mails entre 18h et minuit ce jour là.
Lorsque le souci nous a été remonté, nous avons supprimé le bannissement et envoyé ~300 mails qui étaient retenus. Vous pouvez avoir reçu un message d’erreur, si celui-ci indique que le mail a été rejeté, vous pouvez ré-envoyer votre message.
Nous sommes désolés pour le désagrément.
Version courte : suite à un problème d’espace disque sur un de nos serveurs (mutu2 qu’on l’appelle), la plupart des espaces Nextcloud que nous hébergeons ont été indisponibles aujourd’hui lundi 6 mai 2024, de 4h37 du matin à environ midi, soit environ 8h d’indisponibilité. Nous sommes vraiment désolé⋅es pour les soucis que cela a pu poser.
Version plus longue : un de nos serveurs historique, mutu2, qui héberge près de 90% de nos instances Nextcloud, a depuis plusieurs mois, assez peu d’espace disque libre, il ne lui restait que quelques dizaines de giga-octets disponible.
Nous avons des alertes lorsque l’espace disque devient faible, et nous en avons régulièrement discuté ces dernières semaines… Sauf que…
Quelques dizaines de giga-octets, c’est peu, mais c’est largement assez pour fonctionner, et nous n’avons pas programmé d’intervention d’urgence (à part veiller régulièrement à libérer un peu d’espace en routine).
Nous avons depuis l’été un plan pour libérer plusieurs centaines de giga-octets, que nous devons migrer sur un autre serveur, mais la mise en place du serveur a pris pas mal de temps, son redimensionnement aussi, son paramétrage aussi, la reconfiguration aussi.
Bref, la dernière brique de configuration a été mise en place hier dimanche. Il ne nous restait qu’à faire la migration pour libérer l’espace promis… Et le serveur est arrivé à court d’espace disque quelques jours trop tôt.
Hello hello,
Depuis quelques semaines, les forums Discourse étaient devenus très lents, avec notamment un message de type « erreurs 502 » ou « mises à jour en cours » qui s’affichait régulièrement.
Nous avons mis du temps à le corriger car nous avons dû déplacer un logiciel que nous pensions héberger sur la même machine que les forums.
En effet, la machine qui héberge les forums est traditionnellement assez calme et peu chargée, nous avions donc décidé d’y installer un serveur d’objets S3 : un module de stockage de données que nous utilisons pour certains espaces Nextcloud.
Nous n’avions pas anticipé que ce module occasionnerait énormément d’accès disques, qui ralentiraient énormément l’intégralité des services.
Une fois le souci diagnostiqué, il nous a fallu trouver de la place sur une machine capable d’héberger ces données, ce qui nous a pris pas mal de temps.
Le service est normalement revenu à la normale, nous sommes vraiment désolé⋅es pour les difficultés à y accéder.
Le Cloud Girofle vous invite à son Assemblée générale le dimanche 21 avril à 14h, en ligne et en vrai à l’AERI Montreuil (93) !
La partie formelle sera brève : il s’agit de revenir sur la fin de l’année 2023 suite au réalignement de nos exercices comptables sur l’année civile, et de valider la modification de siège social de l’association.
Mais en fait, en vrai, c’est plutôt un prétexte pour se rencontrer, se retrouver, et échanger 🙂
Au programme
C’est pour qui ? tous⋅tes les utilisateur⋅ices ! Car tous les utilisateur⋅ices sont membres de droit de l’association, et ont voix au chapitre. Aussi parce que c’est l’occasion de faire connaissance !
C’est où ? à l’AERI, un super chouette lieu associatif à Montreuil (57 – 59 Rue Étienne Marcel 93100, Montreuil). Et aussi en ligne (nous contacter pour qu’on vous envoie le lien de connexion)
C’est quand ? Dimanche 21 avril 2024, à partir de 14h. Fin prévue vers 17h.
Les outils numériques sont centraux dans le fonctionnement d’un grand nombre d’associations : partage de fichiers, mails, communication, comptabilité, etc. Néanmoins, la plupart de celles-ci utilisent des outils pas forcément éthiques. Exemples :
La liste est souvent longue, mais heureusement, des alternatives existent ! Néanmoins, penser une transition numérique est un processus qui peut être complexe, qui doit être anticipé et qui ne consiste jamais à remplacer un outil « GAFAM » par un autre « libre ».
Alors, Framasoft et Animafac lancent le projet Émancip’Asso :
Le Cloud Girofle a suivi la formation Émancip’asso, et fait partie des prestataires référencés. N’hésitez pas à nous contacter pour :
Bonjour tout le monde. Avec un peu de retard, nous souhaitions communiquer sur des difficultés que nous avons eues durant le mois de janvier :
Tout a commencé au mois de décembre 2023. Nous remarquons une alerte sur un de nos serveurs, chif.fr. Cette alerte nous indique que le disque dur principal subit des erreurs de lecture.
Ce genre d’alerte est d’habitude un signe de « pre-fail » : aucune donnée n’est perdue pour l’instant, mais cela suggère que le disque est en fin de vie. chif.fr est le premier serveur que nous avions loué lorsque nous avions lancé le Cloud Girofle, en 2018. Six ans plus tard, il n’est pas absurde qu’un disque sollicité 24h/24 donne des signes de faiblesse.
Nous tentons d’en savoir plus sur l’erreur. Sur les quelques jours d’observation, le système d’alerte nous enverra une ou deux alertes supplémentaires, mais nous ne réussirons pas à la confirmer ou la préciser avec les outils d’analyse traditionnels. Nous nous demandons si c’est un faux-positf ou non.
chif.fr est le premier serveur que nous avons loué. Il a traversé notre inexpérience, nos expérimentations, et nos déboires. C’est aussi le serveur qui accumule le plus de dette technique, et qui nous demande le plus de maintenance. Nous avons également identifié depuis plus d’un an qu’il constitue un « SPOF », un single-point of failure (un élément critique du système) pour plusieurs services :
Ainsi, en cas de panne du disque, tous ces services se seraient retrouvés impactés. Par ailleurs, le disque n’étant pas redondé (pas de RAID), nous nous trouvons contraints de réaliser un changement de disque avec une interruption de service. Enfin, la machine étant hébergée chez notre prestataire Kimsufi, nous ne pouvons ni réaliser le changement de disque nous-même, ni un clone du disque, nous devrons repartir depuis nos sauvegardes. Kimsufi nous informe que le changement de disque peut être anticipé à une heure précise, et que l’opération prend une demi-heure environ.
Après prise en compte de tous ces éléments, du risque de pertes de données et de service, et malgré le fait que nous n’arrivons pas à isoler l’erreur du disque ou à confirmer qu’il ne s’agit pas d’un faux-positif, nous décidons de programmer le remplacement du disque.
Tout d’abord, nous listons les services qui seront impactés par le changement de disque, et la réinstallation qui va s’en suivre. Pour pouvoir minimiser les effets sur les utilisateur⋅ices. Nous choisissons de profiter de ce changement de disque pour réduire la concentration des services sur cette machine, ou pour les déplacer (semi)-temporairement :
Ensuite, nous nous assurons que nous disposons de sauvegardes intégrales du serveur (d’habitude, nous sauvegardons seulement les données, ce qui oblige à tout réinstaller si nous perdons le serveur). Nous rajoutons la sauvegarde de la racine « / » du serveur à nos backups.
L’opération démarre le samedi 13/01 au matin. Au début, tout se passe bien, Kimsufi a remplacé le disque à 1h du matin, nous attaquons la restauration à 9h. Nous pouvons accéder à la console de secours, et commencer la restauration.
Le partitionnement se déroule bien. L’objectif étant de remonter le service le plus rapidement possible, on avait décidé de garder le même partitionnement que sur le précédent disque. Les partitions sont simples, sans LVM ni RAID.
Une fois le partitionnement en place, il nous faut remonter le système. Pour cela, on se base sur une archive Borg de tout le système (toute la racine /, sauf les dossiers /sys/, /proc/, /tmp/, /dev/ et /run/ ) que nous avions lancé la veille.
Le système maintenant en place, on peut quitter la console de secours et redémarrer le serveur. C’est là que les choses se compliquent: le système ne semble pas démarrer. Sur ce serveur, il n’y a pas malheureusement pas de console IPMI, il nous est donc impossible de diagnostiquer la panne. Après plusieurs longues tentatives de redémarrage/console de secours, nous changeons le fusil d’épaule et décidons de repartir sur l’installation d’un Debian via l’installateur Kimsufi 😿
A partir de là, on arrive bien à démarrer le système et à s’y connecter, mais c’est un système vierge, sans nos services et outils. Nous retournons donc sur la console de secours, et nous tentons de remplacer les dossiers du système par ceux de l’archive Borg. Le système démarre ensuite correctement mais nous avons rapidement des messages d’alertes nous indiquant que tout n’est pas opérationnel. Certain fichiers n’ont pas été restaurés correctement (les liens symboliques n’ont pas été restaurés). Cette erreur aurait pu être évitée en testant des restaurations au préalable, chose que nous n’avions pas fait par manque de temps.
Nous avons finalement réussi à remettre en route les services « à la mano » un à un, sur plusieurs jours, jusqu’au mardi 16/01, en priorisant les services les plus critiques.
Au final, les utilisateur⋅ices ont été impactés de la manière suivante :
Nous sommes capables d’effectuer des interventions en cas de problème matériel, sans perte de données.
Nous avons encore des progrès à faire dans l’anticipation de toutes les étapes, et à l’avenir nous nous assurerons que deux administrateur⋅ices « racine » sont bien présents pour la migration.
Pour en savoir plus : nous essayons de rédiger un rapport technique (parfois succinct) pour chaque intervention majeure sur nos serveurs. Celle liée au changement de disque est disponible sur notre wiki technique.
En parallèle des soucis de disques, vous avez été nombreureuse à nous signaler une panne sur l’ouverture des documents collaboratifs. En effet, sur certaines instances Nextcloud, lors de l’ouverture d’un fichier Office (Word, Excel, etc…) il était proposé de télécharger le fichier, alors qu’il devait simplement s’ouvrir dans le navigateur.
Nous pensons que cette panne est liée à une nouvelle fonctionnalité introduite en 2023 qui vient vérifier périodiquement si le service Onlyoffice (l’outil d’édition collaborative que nous utilisons) est bien joignable depuis chaque Nextcloud. Nous avons pour l’instant désactivé cette fonctionnalité car nous disposons déjà d’outils de suivi de notre instance Onlyoffice.
Faites nous signe si vous rencontrez à nouveau ce problème 🙏
Nos services sont gérés par des bénévoles, sur leur temps libre. Nous faisons de notre mieux pour vous fournir des services performants et disponibles mais nous ne pouvons pas garantir une présence constante de nos équipes de support. Nous vous remercions donc de votre compréhension, patience et soutient 🥰
Nous avons démarré une mise à jour des Nextcloud ce jeudi 16 novembre (hier soir) à 19h.
La mise à jour, qui devait durer 3h, a finalement duré plus de 30h 🤒 Nous présentons donc tous nos mots d’excuses aux collectifs impactés par la perte de service hors des horaires annoncées.
Pour cette mise à jour nous avons choisi de sauter une version, et de passer de la version 25 à la version 27 de Nextcloud (aussi appelée Hub 5).
Il y a beaucoup de nouveautés, voici un site qui décrit tout ça en détail:
On regarde l’arrivée de l’intelligence artificielle dans Nextcloud d’un mauvais œil d’écolos. Rien n’est activé par défaut. L’entreprise Nextcloud revient sur cette nouvelle fonctionnalité plus en détail dans ce billet de blog: https://nextcloud.com/fr/blog/lia-dans-nextcloud-quels-sont-les-enjeux-le-pourquoi-et-le-comment/
Pour les plus curieux.e.s d’entre vous, merci de ne pas foncer tête baissée dans l’IA, faites nous un petit signe avant de tester, histoire qu’on en discute 🤓
Du coté de ce qu’on aime bien, il y a plein de nouvelles fonctionnalité sur le calendrier, les Decks, une belle refonte visuelle de l’application de gestion des contacts et celle de prise de notes, et des améliorations de performances sur l’application Talk.
On aime aussi les avancées sur les dossiers de groupe. On a fait une page de documentation sur les dossiers de groupes ici, qui peuvent être très utiles pour les collectifs.
On commence à avoir nos premiers soucis de volumes. Mais on aurait pu et du les voir venir. « No shit Sherlock » comme dirait l’autre.
Résolution pour les prochaines mises à jour: on va pas faire ça tout d’un coup (et on veut une médaille pour se raisonnement sans faille).
On a eu aussi d’autres galères:
Si vous utilisez le logiciel de synchronisation (aussi appelé Nextcloud Desktop) pour synchroniser vos fichiers entre votre ordinateur et votre espace Nextcloud, il vous sera nécessaire de vous reconnecter.
Il vous suffira de cliquer sur le bouton « Login » depuis le logiciel de synchronisation. Cela vous renverra sur une page de votre navigateur avec une fenêtre de connexion.
C’est tout !
Voilà ! On vous laisse découvrir tout ça. N’hésitez pas à revenir vers nous si vous avez des questions ou suggestions !