Bienvenue sur RIDEXPLORERS BACKEND

Le backend RIDEXPLORERS expose les APIs REST consommées par l'administration et le site public afin de centraliser les données des montagnes russes et des parcs d'attractions issues de RCDB.

Instance de production : https://admin.ridexplorers.com/

Démarrage rapide

  1. Clonez le projet : git clone https://github.com/alexjuillardoff/ridexplorers_api
  2. Installez les dépendances : pnpm install
  3. Initialisez PostgreSQL local : ./scripts/db/postgres-local.sh init && ./scripts/db/postgres-local.sh start
  4. Appliquez les migrations : DATABASE_ADMIN_URL=... pnpm db:migrate
  5. (Optionnel) Importez les JSON vers SQL : DATABASE_ADMIN_URL=... pnpm db:import:all --truncate
  6. Compilez puis lancez en dev : pnpm run build & pnpm run start:dev

La documentation interactive Swagger est accessible sur /docs une fois le backend démarré. Les étapes détaillées (scraping, import PM2) sont documentées dans docs/database/.

Fonctionnalités principales

Pour un guide d'installation détaillé, consultez README.md, GUIDE_DEBUTANT.md et la documentation dans docs/database/.

Le code source est disponible sur GitHub.

Fonctionnalités détaillées

Pages et outils

Swagger Docs (/docs)

Data Factory (/data-factory)

Accueil (/)

Jobs scraping & import (PM2)

Utilisez PM2 pour orchestrer les tâches ponctuelles et conserver des logs centralisés :

pm2 start pnpm --name scrape-coasters --no-autorestart -- run scrape
pm2 start pnpm --name import-all --no-autorestart -- run db:import:all -- --truncate
pm2 restart ridexplorers-api --update-env
pm2 logs <nom> --lines 200
pm2 delete <nom>

Le flux complet « scraping JSON → import SQL → redémarrage API » est détaillé dans docs/database/scraping-to-sql.md.