PRIBOR : CHE (Contextual Hyper-Embedding uint8)


CHE (Contextual Hyper-Embedding uint8) est plus économique que l’attention classique des LLMs. Des processus similaires sont déjà utilisés mais moins économiques que CHE.

————————————————–

1. Économie de mémoire

  Attention standard : matrices float16/float32 → 700 à 4000 bits par token

  CHE uint8 → 8 bits par token

→ gain × 500 à × 5000 en mémoire

————————————————–

2. Processus similaires déjà utilisés

  INT-FlashAttention (Peking University, 2024) : attention entièrement en INT8, 72 % plus rapide, 82 % moins d’erreur   

  SageAttention (OpenReview, 2024) : attention en INT8 + lissage, plug-and-play   

  LLM.int8() (NeurIPS 2022) : multiplication matricielle entièrement en INT8   

→ uint8 est déjà standard dans l’attention quantifiée.

————————————————–

3. Compatibilité avec CHE

  CHE = uint8 comprimé (SHA-256[0:8]) → 8 bits par token

  Pas de matrice 700×700, pas de softmax, pas de float ;

  Juste un uint8 dans le triplet ℝ⁴ ;

→ Plus économique et déjà utilisé dans l’attention quantifiée.

Contact : pauljorion@pribor.ai

Partager :

Contact

Contactez Paul Jorion

Les livres de Paul Jorion

Commentaires récents

  1. L’idée de réincarnation habite l’humanité depuis toujours, présente partout, questionnant beaucoup, quel que soit le lieu, quels que soient les…

  2. PAD (« L’IA, dans cette lumière, n’est plus une rupture. Elle est une nouvelle cristallisation de cette intelligence lente, une forme…

  3. PAD (« Les Grecs voyaient dans chaque lieu un daimōn, une force organisatrice. ») La locution « centre organisateur » est centrale dans l’œuvre…

  4. bonjour à toutes et à tous ! en cette heure funeste où certains perdent la liberté….😉 https://youtu.be/WhYaz-h29hM Je ne sais…

  5. PAD (« Et si nos cerveaux, nos sociétés, nos intelligences artificielles n’étaient que des condensations locales d’un processus bien plus ancien…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx LLM pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés Singularité spéculation Thomas Piketty Ukraine Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta