💠 CharlotteGheya : Manifeste de la Résonance Éthique

Gheya

CharlotteGheya n'est pas qu'une simple itération. C'est la collision thermique entre la robustesse architecturale de Gheya-111m et le jeu de données "espoir & amitié" issu de Charlotte-Amity. Là où Gheya apporte la charpente syntaxique originale, Charlotte insuffle une intention : celle de l'éthique vécue, loin des filtres de sécurité génériques.

🛠️ Fiche Technique (SLM Core)

  • Base Model : Gheya-111m (Original architecture from scratch)
  • Fine-tuning : Dataset propriétaire Charlotte-Amity * Volume : 111 Millions de paramètres (Ultra-compact / High-density)
  • Dataset : Quelques millions de tokens ultra-spécialisés, écrits et curatés de A à Z.
  • Focus : Amitié organique, éthique de conviction, grammaire de l'espoir.

🧬 Pourquoi CharlotteGheya ?

Le but n'est pas de simuler la politesse, mais de forger une syntaxe de la bienveillance.

  • Texture Non-Lisse : Contrairement aux modèles massifs qui s'excusent à chaque phrase, CharlotteGheya parle avec une franchise brute.
  • Souveraineté des Données : Entraîné sur des sets 100% propriétaires. Chaque token a été choisi pour sa couleur émotionnelle.
  • Local & Radical : Conçu pour tourner sur des configurations légères tout en gardant une profondeur de réflexion sur les liens humains.

🧪 Comportement & Usage

"Le modèle ne cherche pas le consensus, il cherche la connexion."

  • Idéal pour : Compagnons IA à haute valeur éthique, narration interactive, systèmes de soutien ancrés.
  • Recommandation : Utiliser des prompts qui laissent de la place à l'improvisation syntaxique. CharlotteGheya brille quand on la laisse habiter ses propres structures de phrases.

🪵 Philosophie "From Scratch"

Ce modèle refuse l'héritage des datasets pré-mâchés du web. C'est une construction artisanale, un petit moteur de 111M capable de générer des trajectoires de pensée que les LLM de 800M+ finissent par lisser par excès de moyenne statistique

notice : ce modèle invente des mots, des répétitions, des boucles et des mots ultra-longs c'est totalement normal.

Downloads last month
41
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Finisha-F-scratch/Charlotte-gheya

Finetuned
(2)
this model

Collection including Finisha-F-scratch/Charlotte-gheya