
Fonctionnalités révolutionnaires: - ✨ IA capable d'exécuter des commandes système de manière sécurisée - 🧠 Planification automatique des tâches complexes - 🔒 Système de sécurité avec listes blanches/noires de commandes - 📋 Création de plans d'action étape par étape - 🚀 Exécution automatique avec feedback en temps réel - 📊 Génération de rapports détaillés Nouvelles commandes: - `exec <commande>` - Exécution directe sécurisée - `plan <description>` - Création de plan d'action - `run` - Exécution du plan créé - `cancel` - Annulation du plan actuel Mode intelligent: - L'IA analyse automatiquement si des commandes sont nécessaires - Création et exécution automatique de plans d'action - Feedback visuel avec icônes de statut - Gestion des erreurs et adaptation du plan Exemple d'usage: 🧠 NeuraTerm> analyse le répertoire 🤖 Analyse intelligente: cette demande nécessite des actions système. 📋 Création automatique d'un plan d'action... 🎯 Plan créé: Analyser la structure et le contenu du répertoire courant 🔄 Exécution automatique en cours... ✅ Lister les fichiers et dossiers ✅ Afficher la structure arborescente 📊 Génération du rapport final... L'IA est maintenant vraiment autonome et opérationnelle ! 🚀 🤖 Generated with [Claude Code](https://claude.ai/code) Co-Authored-By: Claude <noreply@anthropic.com>
🧠 NeuraTerm
Terminal IA professionnel avec support multi-providers et suivi avancé des coûts.
🚀 Fonctionnalités
- Support multi-providers : OpenAI (ChatGPT) et Mistral AI
- Suivi des coûts en temps réel : Compteur de tokens et calcul précis des coûts
- Statistiques détaillées : Analyse de l'utilisation par provider
- Interface professionnelle : Terminal optimisé pour un usage professionnel
- Configuration flexible : Support des variables d'environnement et fichiers de configuration
📦 Installation
npm install -g neuraterm
Ou clonez le repo et compilez :
git clone <repo-url>
cd NeuraTerm
npm install
npm run build
npm start
⚙️ Configuration
🚀 Configuration automatique (recommandée)
Au premier lancement, NeuraTerm vous demandera vos clés API de manière interactive :
neuraterm
# Suivez les instructions pour configurer vos clés API
🔑 Gestion des clés API
# Afficher le statut des clés
keys
# Configurer une nouvelle clé
key set openai
key set mistral
# Supprimer une clé
key remove openai
# Reconfiguration complète
setup
Variables d'environnement (optionnel)
export OPENAI_API_KEY="votre_clé_openai"
export MISTRAL_API_KEY="votre_clé_mistral"
Fichier de configuration avancée
Créez ~/.neuraterm/config.json
pour une configuration avancée :
{
"ai": {
"openai": {
"model": "gpt-4o-mini"
},
"mistral": {
"model": "mistral-large-latest"
},
"defaultProvider": "openai"
},
"terminal": {
"theme": "dark",
"showTokenCount": true,
"showCost": true,
"autoSave": true
}
}
Note
: Les clés API sont stockées séparément dans
~/.neuraterm/keys.json
pour plus de sécurité.
🎯 Utilisation
Commandes de base
# Lancer NeuraTerm
neuraterm
# Aide
help
# Gestion des clés API
keys # Statut des clés
key set openai # Configurer OpenAI
key set mistral # Configurer Mistral
setup # Configuration interactive
# Poser une question à l'IA
Comment optimiser mon code Python ?
# Changer de provider
provider mistral
provider openai
# Voir les statistiques
stats # Toutes les stats
stats openai # Stats OpenAI uniquement
cost # Coût total
# Configuration
config # Voir la configuration
providers # Lister les providers
Exemples d'usage professionnel
# Analyse de code
Peux-tu analyser ce fichier Python et suggérer des améliorations ?
# Génération de tests
Génère des tests unitaires pour cette fonction JavaScript
# Optimisation
Comment réduire la complexité de cet algorithme ?
# Documentation
Écris une documentation technique pour cette API
📊 Suivi des coûts
NeuraTerm affiche automatiquement :
- Nombre de tokens utilisés (entrée → sortie)
- Coût par requête
- Coût total cumulé
- Temps de réponse moyen
- Statistiques par provider
🔧 Développement
# Installation des dépendances
npm install
# Développement avec rechargement
npm run dev
# Compilation
npm run build
# Tests
npm test
# Linting
npm run lint
📝 Modèles supportés
OpenAI
- gpt-4o-mini (recommandé)
- gpt-4o
- gpt-4-turbo
- gpt-4
- gpt-3.5-turbo
Mistral AI
- mistral-large-latest (recommandé)
- mistral-medium
- mistral-small
- codestral-latest
💰 Tarification (novembre 2024)
Provider | Modèle | Entrée (/1K tokens) | Sortie (/1K tokens) |
---|---|---|---|
OpenAI | gpt-4o-mini | $0.00015 | $0.0006 |
OpenAI | gpt-4o | $0.005 | $0.015 |
Mistral | mistral-large-latest | $0.004 | $0.012 |
Mistral | mistral-small | $0.002 | $0.006 |
🛠️ Architecture
- TypeScript : Typage fort et développement moderne
- Modular : Architecture modulaire extensible
- Multi-provider : Support facile de nouveaux providers IA
- Professional : Optimisé pour un usage d'entreprise
📄 Licence
MIT - Voir le fichier LICENSE pour plus de détails.
🤝 Contribution
Les contributions sont les bienvenues ! Consultez notre guide de contribution pour commencer.
📞 Support
Pour le support et les questions :
- Ouvrez une issue sur GitHub
- Consultez la documentation
- Contactez l'équipe de développement
Description
Languages
TypeScript
99.9%
JavaScript
0.1%