c033dca8d2e717e3399fbcb24fc7cc0a892c1e9c
__________ .___ _____ .___
\______ \_____ __| _/ / _ \ | |
| | _/\__ \ / __ | / /_\ \| |
| | \ / __ \_/ /_/ | / | \ |
|______ /(____ /\____ | \____|__ /___|
\/ \/ \/ \/
Guida completa per configurare un'infrastruttura AI containerizzata con Podman rootless su Ubuntu.
1. Prerequisiti
Sistema Operativo
- Ubuntu 22.04 LTS o superiore
- Utente non-root con privilegi sudo
Partizionamento
| Mount Point | Size | Filesystem | Note |
|---|---|---|---|
| /boot | 1 GB | ext4 | |
| / | 40 GB | ext4 | |
| /home | 50 GB | ext4 | se usi Podman rootless |
| /srv | tutto il resto | xfs | per dati, modelli AI, volumi bind |
| /swap | 16 GB | swap |
Installazione
Per installare automaticamente tutto il necessario, esegui:
curl -fsSL https://code.badstorm.xyz/SRV/bdi_podman_serverconf/raw/main/install.sh | sh
Questo script eseguirà tutti i passi di configurazione, inclusi aggiornamenti di sistema, installazione di Podman, configurazione di systemd e riavvio finale.
Utilizzo dopo l'installazione
Dopo l'installazione e il riavvio, usa il comando badai per gestire i servizi AI containerizzati.
Comandi principali:
badai restart: Riavvia tutti i container e le reti quadlet, ricarica il daemon systemd dell'utente.badai restart [nome]: Riavvia un servizio specifico per nome (senza prefisso numerico).badai help: Mostra il messaggio di aiuto.
Esempi:
badai restart # Riavvia tutto
badai restart llamacpp # Riavvia solo il container llamacpp
I servizi includono container come llamacpp per modelli AI e nginx per il proxy, oltre alle reti interne.
Kuvaus
Languages
Shell
61.6%
Dockerfile
21.2%
Go
17.2%