Sur une terrasse parisienne, un groupe d’amis rit autour d’un café. Le soleil caresse les verres encore embués, les voix fusent, se croisent, s’entremêlent. Pour certains, ce moment est une banalité joyeuse. Pour d’autres, comme Élise Vernet, 68 ans, ancienne professeure de lettres, c’est une épreuve silencieuse. « Je souris, je hoche la tête, mais souvent, je ne comprends rien », confie-t-elle. Depuis dix ans, sa surdité progressive la pousse à fuir les dîners, les sorties, les réunions familiales. « On ne se rend pas compte à quel point le bruit d’un restaurant, même modéré, peut devenir une forteresse », ajoute-t-elle. Mais aujourd’hui, Élise porte des lunettes. Pas n’importe lesquelles. Des lunettes qui transforment les sons en mots, les murmures en textes lisibles. Des lunettes qui, pour la première fois depuis des années, lui permettent de reprendre sa place dans la conversation. Bienvenue dans l’ère Captify.
Pourquoi la vie en société devient-elle un défi pour les malentendants ?
Les pièges invisibles de la communication orale
En France, près de 7 millions de personnes vivent avec un trouble auditif. Pourtant, le monde n’est pas conçu pour eux. Un simple repas entre amis peut devenir un parcours semé d’embûches : voix superposées, échos dans les salles, absence de visibilité des interlocuteurs. La lecture labiale, souvent utilisée, est épuisante et peu fiable. « Je passais mes soirées à deviner, à combler les silences avec des suppositions. C’est usant, physiquement et mentalement », témoigne Thomas Léandre, 54 ans, cadre dans une entreprise de logistique, sourd de l’oreille gauche depuis un accident vasculaire.
Les appareils auditifs modernes, bien que performants, peinent à filtrer le bruit de fond. Et dans les lieux publics — cafés, transports, réunions — la fatigue cognitive s’installe rapidement. « On appelle ça le *listening effort* », explique le Dr Amina Choukri, audiologiste à Lyon. « Le cerveau travaille deux à trois fois plus pour décoder ce qui est dit. C’est un effort invisible, mais énorme. »
Quand l’isolement devient une stratégie de survie
Face à cette fatigue, beaucoup choisissent de se retirer. « Je ne voulais plus être celui qui demande de répéter trois fois », confie Thomas. « Alors je me taisais. Et plus je me taisais, moins on m’invitait. »
Ce cercle vicieux touche particulièrement les personnes âgées. Élise Vernet, elle, a longtemps refusé de porter des appareils auditifs : « J’avais l’impression d’être marquée, comme si je portais un badge disant « je suis vieille et défaillante » ». La stigmatisation, réelle ou perçue, reste un frein majeur à l’adoption des aides auditives classiques.
Comment les lunettes Captify redéfinissent-elles l’écoute ?
Une technologie discrète, mais révolutionnaire
Lancées en avril 2025, les lunettes Captify ont été conçues pour répondre à ces défis. À première vue, elles ressemblent à des montures classiques, fines, élégantes. Mais à l’intérieur, un système de microphones directionnels capte les voix dans un rayon de trois mètres. Grâce à un algorithme d’intelligence artificielle, chaque mot est transcrit en temps réel sur un mini-écran intégré au bord inférieur du verre droit — un écran transl democracy, visible uniquement par le porteur.
« Ce n’est pas une surimpression permanente », précise Julien Ferran, l’un des cofondateurs de l’entreprise. « L’utilisateur active la transcription d’un simple geste — un double tap sur la tempe. Et il peut choisir la taille du texte, la couleur, ou même désactiver l’affichage si la conversation devient trop calme. »
De la transcription à la traduction : une ouverture sur le monde
Captify ne se contente pas de transcrire le français. Elle traduit aussi. En direct. Lors d’un test à Barcelone, Camille Térence, 32 ans, expatriée française atteinte d’une surdité bilatérale légère, a pu suivre une réunion en anglais sans interprète. « J’ai vu les phrases apparaître en français, en bas de 12, en temps réel. C’était… magique. Je n’avais plus besoin de lever la main pour demander une reformulation. »
Le taux de reconnaissance vocale dépasse 92 %, même dans un environnement bruyant, selon les tests menés par l’Institut de recherche en technologies inclusives (IRTI). « L’IA a été entraînée sur des milliers d’heures de dialogues en situation réelle — restaurants, salles de classe, réunions d’équipe », explique Ferran. « Elle apprend à distinguer les voix, à gérer les interruptions, à deviner les mots manquants. »
Quel impact concret sur la vie des utilisateurs ?
« J’entends avec mes yeux » : une nouvelle forme d’écoute
Pour Élise Vernet, le changement est radical. « J’ai retrouvé ma petite-fille. Avant, elle parlait vite, de dos, en jouant. Je ne comprenais jamais ce qu’elle me racontait. Aujourd’hui, je vois ses mots apparaître. C’est comme si je la redécouvrais. »
Elle a même repris ses soirées au théâtre. « J’active les sous-titres, et je comprends tout. Même les chuchotements. »
Thomas Léandre, quant à lui, a retrouvé sa place au travail. « J’interviens à nouveau en réunion. Je ne me contente plus de hocher la tête. » Il ajoute, sourire aux lèvres : « Mes collègues ne savent même pas que je porte des lunettes intelligentes. Et c’est bien comme ça. »
Un confort qui fait la différence
Le design a été pensé pour l’usage prolongé. Légères (48 grammes), avec une batterie de 12 heures, les Captify s’intègrent au quotidien sans effort. « On voulait que l’objet disparaisse », insiste Ferran. « Que l’utilisateur oublie qu’il est en train d’utiliser une aide technologique. »
Les réglages sont accessibles via une application mobile, mais aussi par commandes gestuelles : un tap pour activer, un balayage vers le haut pour changer de langue, un clin d’œil prolongé pour enregistrer une phrase importante.
Dans quels contextes ces lunettes changent-elles vraiment la vie ?
Les usages sont multiples. Dans un restaurant bondé, les lunettes filtrent les voix de la table et affichent la conversation en cours. En télétravail, elles transcrivent les échanges en visioconférence, même lorsque plusieurs personnes parlent en même temps. À l’université, Camille Térence suit désormais les cours en anglais sans fatigue. « Avant, je prenais des notes frénétiquement. Maintenant, je peux écouter, comprendre, et participer. »
Même les personnes sans handicap auditif s’y intéressent. « J’ai vu des étudiants en langues vivantes les utiliser pour améliorer leur compréhension orale », note le Dr Choukri. « Ou des touristes qui veulent suivre une visite guidée en italien sans casque. »
Un outil d’inclusion linguistique et culturelle
En France, pays de migrations et de diversité, les Captify offrent une réponse concrète à la barrière de la langue. Un travailleur sénégalais installé à Marseille, Amadou Diallo, les utilise pour comprendre les échanges en réunion d’équipe. « Parfois, les collègues parlent vite, avec des expressions. Maintenant, je vois les mots, je comprends mieux le ton, les intentions. »
Les associations d’insertion professionnelle, comme Cap Emploi Sud, ont déjà intégré les lunettes dans leurs programmes d’accompagnement. « C’est une avancée majeure », affirme la coordinatrice Fatoumata N’Diaye. « Elle permet à des personnes compétentes de ne plus être pénalisées par un obstacle technique. »
Qui se cache derrière cette innovation ?
Une équipe née d’un constat humain
Captify n’est pas le fruit d’un laboratoire isolé. Elle est née d’une rencontre : Julien Ferran, ingénieur en traitement du signal, et Lina Moreau, designer, ont tous deux un proche malentendant. « On a vu à quel point les solutions existantes étaient lourdes, peu discrètes, ou inefficaces », raconte Moreau. « On s’est dit : et si on pensait l’écoute autrement ? Pas comme un problème technique, mais comme une expérience humaine. »
Le projet a mobilisé des dizaines de malentendants dès les premières phases de conception. « On a testé les prototypes dans des conditions réelles : au marché, dans le métro, au restaurant », explique Ferran. « Leurs retours ont tout changé — la position de l’écran, la latence, le contraste des textes. »
Un lancement mondial sous tension
Le lancement, en avril 2025, a été un succès immédiat. En France, les premiers stocks ont été épuisés en 48 heures. « On pensait avoir sous-estimé la demande », reconnaît Moreau. « En réalité, on avait sous-estimé la soif d’inclusion. »
Les lunettes sont désormais disponibles dans 12 pays, avec des adaptations locales — accents, langues régionales, normes de sécurité. Une version pour enfants est en développement, avec des montures ergonomiques et un mode apprentissage.
Quels défis restent à surmonter ?
Accessibilité financière et éthique des données
Le prix reste élevé : 1 490 euros. Bien que des partenariats soient en cours avec des mutuelles et la Sécurité sociale, l’accès reste inégal. « On travaille sur un modèle de location, et une version plus abordable », annonce Ferran. « L’inclusion ne doit pas être un luxe. »
Autre enjeu : la confidentialité. Les lunettes enregistrent temporairement les conversations pour permettre la transcription. « Aucune donnée n’est stockée sur nos serveurs », insiste l’équipe. « Tout est traité localement, sur la monture. Et effacé après 24 heures. »
Et après les lunettes ? Vers une technologie sensorielle inclusive
Captify ouvre la voie à d’autres innovations. « On imagine déjà des lentilles connectées, ou des implants rétinaux capables de capter la parole », glisse Moreau. « Le but n’est pas de remplacer les sens, mais de les compléter, de les enrichir. »
Des recherches sont en cours pour adapter la technologie aux troubles de la vision ou de la parole. « Pourquoi ne pas transcrire le langage des signes en texte ? Ou convertir la voix synthétique en sous-titres visuels ? », interroge le Dr Choukri.
Comment préparer l’avenir de la communication inclusive ?
Les experts recommandent de ne pas attendre d’être en situation de handicap pour s’intéresser à ces outils. « La perte auditive commence souvent discrètement », rappelle le Dr Choukri. « Un test régulier, une écoute bienveillante, et une ouverture aux aides technologiques, c’est ce qui permet de rester connecté au monde. »
Pour les malentendants, les associations comme Sourdade ou Entendre Conseil proposent des ateliers d’essai. « On ne parle plus de compensation, mais de participation », conclut Élise Vernet. « Grâce à ces lunettes, je ne suis plus spectatrice de ma vie. Je suis dedans. »
A retenir
Les lunettes Captify remplacent-elles les appareils auditifs ?
Non. Elles sont conçues comme un complément, pas un remplacement. Elles aident à comprendre la parole parlée en la transcrivant visuellement, mais ne restaurent pas l’audition. Elles peuvent être utilisées en parallèle avec des appareils auditifs.
Sont-elles adaptées aux personnes âgées ?
Oui. Le design, l’ergonomie et l’interface simplifiée ont été pensés pour tous les âges. De nombreux utilisateurs seniors les adoptent pour retrouver autonomie et sociabilité.
Peut-on les porter toute la journée ?
Absolument. Légères, discrètes et dotées d’une longue autonomie, elles sont conçues pour un usage prolongé, en intérieur comme en extérieur.
Les lunettes fonctionnent-elles dans toutes les langues ?
Actuellement, elles supportent le français, l’anglais, l’espagnol, l’italien et l’allemand, avec des mises à jour régulières pour étendre les langues disponibles, y compris les dialectes régionaux.
Y a-t-il un risque de dépendance à la technologie ?
Comme pour tout outil d’assistance, un usage équilibré est recommandé. Captify vise à renforcer l’autonomie, pas à la remplacer. L’équipe insiste sur l’importance de maintenir les interactions humaines authentiques.





