N&BOTS développe des modèles CNN, LLM et multimodaux embarqués, et un marketplace pour les distribuer. Toute l'IA s'exécute sur votre appareil — sans jamais toucher le cloud.
Pas une promesse abstraite. Des fonctionnalités concrètes, qui fonctionnent sans internet, qui s'améliorent avec le temps — et qui rendent chaque produit N&BOTS plus utile que la veille.
Pointez votre caméra sur un logo partenaire. La récompense arrive avant même que vous ayez baissé le téléphone. Pas d'application supplémentaire, pas de code promo à taper.
"Baisse les volets du salon." NB-Lang comprend sans mot-clé d'activation, sans cloud. Votre maison vous répond, apprend vos habitudes, et s'adapte — en silence.
NB-Learn améliore vos modèles locaux sans jamais envoyer vos données. Plus vous utilisez l'écosystème N&BOTS, plus il devient précis — pour vous, uniquement.
Installez en un clic un SLM de détection ou un LLM conversationnel, certifié privacy-first. Le marketplace grandit avec l'écosystème — et vos appareils restent à jour automatiquement.
Trois familles de modèles certifiés, conçus pour s'intégrer dans votre écosystème N&BOTS en un clic. SLM pour la rapidité, MLM pour l'équilibre, LLM pour la profondeur. Tous fonctionnent en local. Tous respectent votre vie privée.
Modèle CNN compact embarqué — le moteur de vision de LOGO+ et des robots N&BOTS. Il s'exécute directement sur le smartphone ou le microcontrôleur, sans GPU ni cloud, avec une latence imperceptible.
Un Small Language Model est compact par conception — beaucoup moins de paramètres qu'un LLM. Cette légèreté lui permet de s'exécuter directement sur mobile ou microcontrôleur, sans serveur ni cloud, avec une latence minimale. Idéal pour la détection temps réel.
Avant distribution, chaque modèle passe quatre étapes de validation obligatoires.
Vous entraînez un modèle IA ? Soumettez-le au processus de certification N&BOTS et distribuez-le à tout l'écosystème.
NB-Vision repose sur un réseau de neurones convolutifs (CNN) — une architecture spécifiquement conçue pour la vision par ordinateur. Voici ce qui se passe entre le moment où vous pointez la caméra et la récompense.
La caméra du smartphone capture le logo. L'image est normalisée et recadrée avant d'entrer dans le réseau.
Normalisation des valeurs de pixels. Augmentation de la luminosité en conditions sombres. Recadrage adaptatif selon la perspective du logo.
Les premières couches du CNN détectent les contours, courbes et coins caractéristiques du logo.
Filtres convolutifs de petite taille. Les activations apprennent à repérer des structures visuelles simples — lignes, courbes, angles — qui seront combinées ensuite.
Les couches suivantes assemblent ces bords en formes, couleurs et structures propres à chaque logo.
À mesure que l'on avance dans le réseau, les représentations deviennent plus abstraites. Le modèle apprend à reconnaître des motifs visuels complexes, robustes aux variations d'éclairage et d'angle.
Le logo est condensé en un vecteur compact — sa signature numérique unique, stockée dans la base partenaires.
Ce vecteur capture l'essence visuelle du logo. Il est comparé à la base de données partenaires par distance vectorielle pour identifier la correspondance la plus proche.
Si la correspondance dépasse le seuil de confiance, LOGO+ déclenche la récompense instantanément.
La recherche du logo le plus proche dans la base partenaires est optimisée pour une réponse quasi-instantanée. Le couplage entre la reconnaissance et le déclenchement de la récompense constitue le cœur de l'innovation technologique de LOGO+.
NB-Learn est le moteur d'apprentissage continu de N&BOTS. Basé sur le Federated Learning, il améliore vos modèles locaux au fil de l'utilisation — sans jamais envoyer vos données brutes nulle part.
Concrètement : plus vous utilisez LOGO+, plus la reconnaissance de logos dans votre zone s'affine. Plus vous parlez au hub, plus il comprend votre façon de formuler. Cet apprentissage est silencieux, continu — et entièrement vôtre.
Chercheur, développeur ou industriel — N&BOTS cherche des partenaires pour co-développer des modèles, enrichir le marketplace et valider les architectures sur le terrain. Les premières intégrations définissent les standards.