Categories

Latest

  • RKE2 cluster on Ubuntu 22.04 in minutes – Ansible Galaxy and Manual options (2 ways)

    RKE2 cluster on Ubuntu 22.04 in minutes – Ansible Galaxy and Manual options (2 ways)

    Reading Time: 5 minutes Here are 2 ways to set up a Ranche Kubernetes Engine cluster of 3 (or more) nodes. Minimum requirements Rancher made RKE2 straightforward to install. Here is an example configuration. For details, refer to docs.rke2.io The LAB description Hostname IP Address vCPU RAM (GB) proxy.home.pivert.org 192.168.66.20 1 1 rke21.home.pivert.org 192.168.66.21 2 4 rke22.home.pivert.org 192.168.66.22 2 4 rke23.home.pivert.org 192.168.66.23 2 4 Lab description table Sanity checks Before going further, let’s make sure you successfully run the below tests from your workstation. (Adapt IPs) First option: Ansible Galaxy The Ansible Galaxy RKE2 Role will set up This ansible galaxy role will do

    Read More

  • TUXEDO InfinityBook Pro Gen7 (MK2) Review – Avis

    TUXEDO InfinityBook Pro Gen7 (MK2) Review – Avis

    Reading Time: 6 minutes J”utilise qutodiennement un laptop TUXEDO InfinityBook Pro Gen7 (MK2) modèle performance depuis 2 mois.Il est donc temps d’écrire un avis sur ce laptop particulièrement compact et performant. Description P.S. le prix du laptop intègre l’impression personnalisée et une préinstallation de Windows dans Virtualbox sans license. Avis Ce petit laptop est un monstre de performance. Il se débrouille aussi bien en bureautique avec une bonne autonomie de 7-8h, qu’en mode gaming. Attention cependant, en gaming il ne faut pas s’attendre à plus de 1h à 1h30 d’autonomie. La carte Nvidia est très gourmande. Les plus Les moins Comparaison avec mon laptop

    Read More

  • Upgrade NVMe on Linux / Proxmox / Ceph

    Upgrade NVMe on Linux / Proxmox / Ceph

    Reading Time: 10 minutes I just upgraded my tiny 512GB NVMe SSD to a 4TB one on each node. I started with the host pve3. Here are the steps. Prerequisites Glossary Procedure Note the GPT PMBR size mismatch showing that the new disk is 8 times bigger. List the partitions with p Hopefully, and in most of the cases, the PV with the Linux LVM is at the end. So we need to carefully note the ‘Start’ of the partition, delete it, and recreate it since we want to use the new free space. As you can see, all the defaults were OK in

    Read More

  • Comment ajouter un Cluster Network «Full-Mesh» à Ceph sur Proxmox VE

    Comment ajouter un Cluster Network «Full-Mesh» à Ceph sur Proxmox VE

    Reading Time: 10 minutes Prérequis Introduction Si vous lisez ces pages, les bénéfices d’un réseau «full mesh» pour vos OSD (object storage daemons) et pour les live migrations de vos VMs n’est plus à démontrer. En quelques mots, si les bénéfices en bande passante dépendent de votre réseau principal, les bénéfices en latence pour les OSD sont en revanche importants. En effet si vous utilisez vos switches en «store-and-forward» par défaut et que vous ne pouvez pas activer le mode «cut-through» disponible sur les switches haut de gamme, vous pouvez gagner plus de 100µs en latence. De plus, avoir un réseau dédié aux OSD

    Read More

  • Companion: Soupe à la tomate

    Companion: Soupe à la tomate

    Reading Time: 3 minutes Très facile à préparer, et toujours aussi délicieux. Voici quelques astuces pour réussir une soupe à la tomate rapide, et en grosse quantité dans votre petit robot Moulinex Companion. Ingrédients pour 4 l de soupe Recette Conseils

    Read More

  • Point-in-time recovery (PITR) of PostgreSQL database

    Point-in-time recovery (PITR) of PostgreSQL database

    Reading Time: 3 minutes This quick guide won’t replace the documentation. It provides an example of PostgreSQL backup, PITR configuration & restore. Backup configuration This is not intended to supersede any backup configuration manual, but before recovery, let’s check how the backup is running. The /mnt/cephfs is a shared filesystem on which I place the backups and the archivelogs. Archivelogs are saved after each WAL rotation. Let’s review the config. Full Backup A full backup is triggered every 2 weeks via the postgres crontab. ( crontab -e as the postgres user) WAL backup Restore Check that you have the restore_command aligned with your archive_command

    Read More

  • 5. Shorewall en entreprise : Traçabilité, documentation des règles, revues d’audit, journalisation

    5. Shorewall en entreprise : Traçabilité, documentation des règles, revues d’audit, journalisation

    Reading Time: 3 minutes 1. Traçabilité Garder toutes les versions et l’historique des changements de configuration. Shorewall étant basé sur des fichiers texte, il suffit d’utiliser git.De plus, vous pouvez déclencher un git commit à chaque modification dans /etc/shorewall. Afin de s’assurer qu’un commit soit bien effectué à chaque changement, il faut l’automatiser. Si vous utilisez Vim ou Neovim, ajoutez au /etc/vim/vimrc.local : who am i différence avec whoami Utilisez les commandes standard git pour voyager dans votre historique (et celui de vos collègues). Vous pouvez en plus programmer des git commit via cron. 2. Documentation des règles Chaque règle ou groupe de règle

    Read More

  • CephFS backup

    CephFS backup

    Reading Time: 2 minutes Since it’s a snapshot capable file system, it’s very easy to back up. Rdiff-Backup is an efficient backup tool with «deduplication». Easy, powerful, with python3 as only dependency. Here is an example script that you can schedule from any server with bash and local disk space. For instance, I use this script from a Synology NAS : The Synology task scheduler runs that script, and sends an email in case of failure. The script needs rdiff-backup to be installed on both remote server (The PVE server with a Ceph filesystem to back up) and the local backup server (The Synology

    Read More

  • CephFS snapshots

    CephFS snapshots

    Reading Time: 2 minutes CephFS includes snapshot and scheduling capabilities. That’s very efficient and super handy. CephFS snapshots are different from the Ceph RBD snapshots covered here. You might already know that you can easily create a snapshot of any folder or subfolder by just creating a named subfolder in the magic .snap/ subfolder.Example: Very useful for temporary snapshots, or for your backup script. The name of the folder has no importance. rmdir just removes the snapshot. Schedules Let’s focus on CephFS scheduled snapshots. Here is an example of commands you can use for hourly snapshots and retention. Enable the snap_schedule module Check that

    Read More

  • Le Rubik’s 3×3 avec la méthode CFOP (Débutant – Intermédiaire)

    Le Rubik’s 3×3 avec la méthode CFOP (Débutant – Intermédiaire)

    Reading Time: 10 minutes J’ai commencé avec la méthode simple, mais : Après avoir découvert la méthode simplifiée de Jessica Fridrich, j’ai regretté d’avoir passé du temps à apprendre une méthode simple. La méthode que je vais vous montrer ci-dessous se base un peu plus sur l’intuition, deux « histoires », et un algorithme double pour terminer la face supérieure. Voici donc le tutoriel que j’aurais aimé avoir pour débuter. C’est une version très simplifiée du CFOP / Fridrich qui permet vraiment d’évoluer par la suite : La méthode de Jessica Fridrich La méthode de Jessica Fridrich pour résoudre le Rubik’s cube est également

    Read More

  • ceph-csi on Kubernetes 1.24 (CephFS)

    ceph-csi on Kubernetes 1.24 (CephFS)

    Reading Time: 6 minutes From K8S 1.24, it’s not possible to use the deprecated Cephfs rootfs Provisioner. The solution is to use the new ceph-csi solution for rbd, cephfs or nfs. In this post, we will focus on CephFS mode. The K8S is 3 nodes RKE2 cluster on Ubuntu 22.04 LTS Server; I won’t detail the installation since it’s quite straightforward. Prerequisites I’ll use the provided helm chart and Seashell container. Seashell provides all the tools (kubectl, git, helm, neovim with yaml & json linters, jq, aliases, …) Configure a new cephfs for testing From one of the ceph cluster node. The chosen pg

    Read More

  • Deploy OpenShift OKD on Proxmox VE or bare-metal (user-provisioned)

    Deploy OpenShift OKD on Proxmox VE or bare-metal (user-provisioned)

    Reading Time: 14 minutes OKD (previously known as OpenShift Origin) is the open-source, community-driven version of OpenShift.It provides a platform for managing containerized applications and includes features such as a web console and command-line interface for easy management and monitoring of the cluster and applications. If you want to run an OKD OpenShift cluster on bare-metal or manually provisioned VMs, you’re on the right page.This tutorial, provided scripts & container is for you to get up and running with OKD as fast as possible.Installing an OKD cluster can take a lot of time, so I wanted this guide to be as practical as possible.

    Read More