__________ .___ _____ .___ \______ \_____ __| _/ / _ \ | | | | _/\__ \ / __ | / /_\ \| | | | \ / __ \_/ /_/ | / | \ | |______ /(____ /\____ | \____|__ /___| \/ \/ \/ \/ Guida completa per configurare un'infrastruttura AI containerizzata con Podman rootless su Ubuntu. ## 1. Prerequisiti ### Sistema Operativo - Ubuntu 22.04 LTS o superiore - Utente non-root con privilegi sudo ### Partizionamento | Mount Point | Size | Filesystem | Note | |-------------|---------------|------------|------| | /boot | 1 GB | ext4 | | | / | 40 GB | ext4 | | | /home | 50 GB | ext4 | se usi Podman rootless | | /srv | tutto il resto| xfs | per dati, modelli AI, volumi bind | | /swap | 16 GB | swap | | ## Installazione Per installare automaticamente tutto il necessario, esegui: ```bash curl -fsSL https://code.badstorm.xyz/SRV/bdi_podman_serverconf/raw/main/install.sh | sh ``` Questo script eseguirà tutti i passi di configurazione, inclusi aggiornamenti di sistema, installazione di Podman, configurazione di systemd e riavvio finale. ## Utilizzo dopo l'installazione Dopo l'installazione e il riavvio, usa il comando `badai` per gestire i servizi AI containerizzati. ### Comandi principali: - `badai restart`: Riavvia tutti i container e le reti quadlet, ricarica il daemon systemd dell'utente. - `badai restart [nome]`: Riavvia un servizio specifico per nome (senza prefisso numerico). - `badai help`: Mostra il messaggio di aiuto. Esempi: ```bash badai restart # Riavvia tutto badai restart llamacpp # Riavvia solo il container llamacpp ``` I servizi includono container come `llamacpp` per modelli AI e `nginx` per il proxy, oltre alle reti interne.