diff --git a/src/lang/fr.json b/src/lang/fr.json new file mode 100644 index 0000000..f805947 --- /dev/null +++ b/src/lang/fr.json @@ -0,0 +1,212 @@ +{ + "general": { + "delete": "Supprimer", + "install": "Installer" + }, + "ribbon": { + "chat": "Ouvrir le chat S2B" + }, + "cmd": { + "chat": "Ouvrir le chat", + "pull_model": "Récupérer le modèle Ollama", + "remove_model": "Supprimer le modèle Ollama" + }, + "modal": { + "dont_show": "Ne plus afficher ceci", + "cancel": "Annuler", + "confirm": "Confirmer", + "pull_model_name": "Récupérer le modèle Ollama", + "pull_model_desc": "Installer un modèle depuis le registre Ollama", + "remove": { + "name": "Supprimer le modèle Ollama", + "desc": "Supprimer un modèle installé de votre système", + "success": "Modèle supprimé avec succès", + "error": "Échec de la suppression du modèle. Le modèle n'est peut-être pas installé" + } + }, + "init_third_party_modal": { + "title": "Exécuter via des services tiers", + "description": "Êtes-vous sûr de vouloir exécuter via des tiers ? Vos données personnelles seront partagées avec des services tiers comme OpenAI." + }, + "notice": { + "still_running": "Smart Second Brain est toujours en cours d'exécution. Veuillez patienter.", + "still_indexing": "Smart Second Brain est toujours en cours d'indexation. Veuillez patienter.", + "ollama_not_running": "Veuillez vous assurer qu'Ollama est en cours d'exécution avant d'initialiser Smart Second Brain.", + "ollama_gen_model": "Modèle Ollama non installé. Veuillez installer le modèle avant d'initialiser Smart Second Brain.", + "ollama_embed_model": "Modèle Ollama non installé. Veuillez installer le modèle avant d'initialiser Smart Second Brain.", + "openai_key": "Veuillez vous assurer que votre clé API OpenAI est valide avant d'initialiser Smart Second Brain.", + "failed": "Échec de l'initialisation de Smart Second Brain (Erreur : {error}). Veuillez réessayer.", + "failed_indexing": "Échec de l'indexation des notes dans votre Smart Second Brain. Veuillez réessayer.", + "done": "Smart Second Brain initialisé.", + "error": "Une erreur est survenue. Veuillez attendre que l'erreur soit résolue.", + "not_initialized": "Smart Second Brain non initialisé. Veuillez initialiser d'abord.", + "plugin_data_cleared": "Données du plugin effacées.", + "api_key_invalid": "La clé API n'est pas valide !", + "error_pulling_model": "Échec de la récupération du modèle depuis Ollama (Erreur : {error}). Veuillez réessayer.", + "copied_to_clipboard": "Copié dans le presse-papiers :\n{text}", + "no_notes_retrieved": "Aucune note récupérée. Peut-être baisser le seuil de similarité.", + "run_failed": "Échec de l'exécution de Smart Second Brain (Erreur : {error}). Veuillez réessayer.", + "models_deleted": "Le modèle {model} a été supprimé", + "no_models": "Le modèle {model} n'a pas été trouvé", + "model_pull_canceled": "Annulation de la récupération du modèle" + }, + "chat": { + "edit": "Modifier la requête et régénérer la réponse", + "cancel_edit": "Annuler la modification", + "copy": "Copier le texte", + "regenerate": "Supprimer tous les messages suivants et régénérer la réponse à la requête actuelle", + "change_assistant_prompt": "Modifier le message initial de l'assistant", + "reset_assistant_prompt": "Réinitialiser le message initial de l'assistant", + "retrieving": "Récupération", + "reducing": "Réduction de {num} notes", + "stopped": "Arrêté !", + "user": "Vous", + "assistant": "Assistant", + "save": "Sauvegarder le chat dans une note", + "delete": "Supprimer l'historique du chat", + "toggle_papa": "Discuter avec vos notes", + "toggle_llm": "Discuter avec un LLM simple", + "stop": "Arrêter votre Smart Second Brain", + "send": "Exécuter votre Smart Second Brain", + "retry_error": "Une erreur est survenue. Réessayez l'initialisation", + "reinitialize": "Réinitialiser, les paramètres ont changé", + "input_placeholder": "Discutez avec votre Smart Second Brain..." + }, + "onboarding": { + "welcome_msg": "Bienvenue dans votre Smart Second Brain ! Votre assistant personnel IA qui vous aide à trouver et traiter les informations dans vos notes.", + "setup": "Configuration", + "test": "Test", + "privacy_mode_note": "Votre assistant fonctionnera en mode privé. Cela signifie qu'il n'est pas connecté à Internet et fonctionne entièrement localement en utilisant Ollama.", + "openai_mode_note": "Votre assistant utilisera des services tiers pour fonctionner. Cela signifie que vous devrez partager toutes vos informations personnelles avec ces services et que votre Smart Second Brain doit être connecté à Internet pour utiliser les grands modèles de langage d'OpenAI comme ChatGPT.", + "init": "Démarrer votre Smart Second Brain", + "init_label": "Cliquez pour démarrer", + "ollama": { + "deamon": { + "install": "Installer Ollama dans le terminal :", + "set_baseurl": "Définir l'URL de base d'Ollama", + "start": "Démarrer Ollama en exécutant cette commande dans le terminal" + }, + "app": { + "download": "Télécharger l'application", + "download_link": "ici", + "extract": "Extraire le fichier .zip et démarrer Ollama", + "run": "Exécuter le setup.exe", + "test_label": "Tester si Ollama fonctionne", + "set_origins": "Dans le terminal, définir les origines d'Ollama pour activer les réponses en streaming :", + "restart": "Redémarrer le service Ollama", + "restart_label": "Cliquez sur l'icône de la barre de menus d'Ollama puis quittez", + "quit": "Quitter le service Ollama", + "quit_label": "Cliquez sur l'icône de la barre de menus d'Ollama puis quittez", + "start_origins": "Démarrer Ollama en exécutant cette commande dans le powershell" + }, + "test_origins": "Tester si les origines sont correctement définies", + "install_model": "Installer un modèle d'encodage Ollama.", + "recommended": "Recommandé : ", + "set_model": "Définir votre modèle d'encodage :" + }, + "openai": { + "create_account": "Créer un ", + "create_account_link": "compte OpenAI", + "create_api_key": "Créer une ", + "create_api_key_link": "clé API", + "api_key_warning": "> [!Avertissement] Activer la clé API \n> Pour que la clé API fonctionne, vous devrez peut-être passer à un compte payant OpenAI. Cela signifie déposer au moins 5 $ sur votre compte OpenAI. Cela pourrait changer à l'avenir.", + "paste_api_key": "Collez votre clé ici :", + "test_api_key": "Tester votre clé API", + "api_key_valid": "La clé API est valide !" + } + }, + "incognito_toggle": { + "enable": "Exécuter sur votre machine", + "disable": "Exécuter via des services tiers" + }, + "settings": { + "excludeff": "Exclure fichiers et dossiers", + "excludeff_desc": "Ces fichiers et dossiers ne seront pas intégrés et ne seront pas utilisés pour générer des réponses.", + "excludeff_add": "Ajouter", + "excludeff_delete": "Supprimer de la liste d'exclusion", + "advanced": "Paramètres avancés", + "clear": "Effacer les données du plugin", + "clear_desc": "Cela supprimera toutes les données du plugin et les données du magasin vectoriel. Tous les fichiers de discussion dans votre coffre ne seront pas affectés.", + "clear_modal": { + "title": "Effacer les données du plugin", + "description": "Êtes-vous sûr de vouloir supprimer les données du plugin ? Notez que seules les données du plugin et les données du magasin vectoriel seront supprimées. Tous les fichiers de discussion dans votre coffre ne seront pas affectés." + }, + "clear_label": "Effacer", + "relaunch": "Relancer", + "autostart": "Démarrage automatique", + "autostart_desc": "Démarrer automatiquement le Smart Second Brain lorsque Obsidian démarre.", + "num_docs_retrieve": "Documents à récupérer", + "num_docs_retrieve_desc": "Le nombre maximal de documents à récupérer de votre coffre. Notez que les documents ne sont pas équivalents aux notes.", + "debugging": "Débogage", + "langsmith_key": "Clé API Langsmith", + "langsmith_key_desc": "Fournissez une clé API Langsmith si vous souhaitez tracer et évaluer les mécanismes internes de votre Smart Second Brain.", + "verbose": "Journalisation détaillée de la console développeur", + "verbose_desc": "Activer la journalisation détaillée dans la console développeur.", + "openai": { + "desc": " ", + "api_key": "Clé API", + "api_key_desc": "Fournissez votre clé API OpenAI pour utiliser les grands modèles de langage d'OpenAI.", + "gen_model": "Modèle de discussion", + "embed_model": "Modèle d'encodage", + "model_descriptions": { + "gpt-3.5-turbo": "Dernier modèle GPT-3.5 Turbo (fenêtre de contexte de 16385 tokens)", + "gpt-4": "Dernier modèle GPT-4 (fenêtre de contexte de 8192 tokens)", + "gpt-4-32k": "Modèle GPT-4 (fenêtre de contexte de 32768 tokens)", + "gpt-4-turbo-preview": "Dernier modèle GPT-4 Turbo (fenêtre de contexte de 128000 tokens)", + "text-embedding-3-large": "Dernier modèle d'encodage le plus capable pour les tâches en anglais et non anglais", + "text-embedding-3-small": "Performances accrues par rapport au modèle d'encodage ada de 2ème génération", + "text-embedding-ada-002": "Modèle d'encodage le plus capable de 2ème génération." + } + }, + "ollama": { + "desc": " ", + "gen_model": "Modèle de discussion", + "base_url": "URL de base d'Ollama", + "base_url_desc": "Définir l'URL de votre instance Ollama.", + "embed_model": "Modèle d'encodage", + "recommended": "Recommandé", + "other": "Autre", + "model_descriptions": { + "llama2": "Llama 2 est une collection de modèles de langage de base allant de 7B à 70B de paramètres.", + "llama2-uncensored": "Modèle Llama 2 non censuré par George Sung et Jarrad Hope.", + "mistral": "Le modèle 7B publié par Mistral AI, mis à jour en version 0.2.", + "mistral-openorca": "Mistral OpenOrca est un modèle de 7 milliards de paramètres, affiné sur le modèle Mistral 7B en utilisant le dataset OpenOrca.", + "gemma": "Gemma est une famille de modèles ouverts, légers et de pointe développés par Google DeepMind.", + "mixtral": "Un modèle de haute qualité Mixture of Experts (MoE) avec poids ouverts par Mistral AI.", + "dolphin-mixtral": "Dolphin Mixtral (32000 Tokens)", + "phi": "Phi-2 : un modèle de langage de 2,7 milliards de paramètres par Microsoft Research qui démontre des capacités exceptionnelles de raisonnement et de compréhension du langage.", + "nomic-embed-text": "Un modèle d'encodage ouvert performant avec une large fenêtre de contexte de tokens.", + "mxbai-embed-large": "Modèle d'encodage large de pointe de mixedbread.ai." + } + } + }, + "quick_settings": { + "initialize": "Démarrer votre Smart Second Brain", + "indexing_vault": "Indexation du coffre", + "time_left_minutes": "Environ {minutes}min {seconds}s restants...", + "time_left_seconds": "Environ {seconds}s restants...", + "assistant_language": "Langue de l'assistant", + "pause_indexing": "Pause de l'indexation", + "resume_indexing": "Reprendre l'indexation", + "cancel_indexing": "Annuler l'indexation", + "retry_initialization": "Réessayer l'initialisation", + "mode_changed": "Réinitialiser Smart Second Brain \navec ", + "reinitialize": "Réinitialiser Smart Second Brain", + "chat_via": "Discuter via {model}", + "chatview": "Vue de chat confortable", + "similarity_threshold": "Similarité", + "creativity": "Créativité", + "settings_changed": "Paramètres modifiés.\nRéinitialiser Smart Second Brain.", + "open": "Ouvrir les paramètres rapides", + "close": "Fermer les paramètres rapides", + "error": { + "install_model": "Installer d'abord le modèle {model}", + "other": "Une erreur est survenue.\nVeuillez réessayer l'initialisation..." + } + }, + "tooltip": { + "creativity": "Ajuste le niveau d'originalité dans les sorties du modèle selon votre préférence.", + "similarity": "À quel point les documents récupérés doivent être similaires à la requête de l'utilisateur." + } + } + \ No newline at end of file diff --git a/src/lang/i18n.ts b/src/lang/i18n.ts index 92a754a..8f45d41 100644 --- a/src/lang/i18n.ts +++ b/src/lang/i18n.ts @@ -3,11 +3,14 @@ import { init, addMessages } from 'svelte-i18n'; import en from './en.json'; import es from './es.json'; import tr from './tr.json'; +import fr from './fr.json'; + // import de from './de.json'; addMessages('en', en); addMessages('es', es); addMessages('tr', tr); +addMessages('fr', fr); // addMessages('de', de); init({