Apple vient de franchir une étape concrète dans un domaine que beaucoup considèrent encore comme de la science-fiction : permettre à des personnes souffrant de handicaps moteurs de contrôler un iPhone, un iPad ou un Apple Vision Pro par la pensée.
La firme de Cupertino a annoncé un partenariat avec Synchron, une société spécialisée dans les interfaces cerveau-ordinateur. Synchron développe un dispositif implantable baptisé Stentrode. Ce petit appareil, inséré dans une veine située au-dessus du cortex moteur, capte les signaux électriques du cerveau et les convertit en commandes utilisables sur les appareils Apple, sans que la personne n’ait besoin de bouger ou de parler.
Ce que ça donne dans la pratique
Le Wall Street Journal a rapporté le cas de Mark Jackson, un résident de Pittsburgh atteint de la maladie de Charcot. Équipé du Stentrode depuis plusieurs mois, il a pu interagir avec un Apple Vision Pro, naviguer dans une interface, et même vivre une expérience immersive dans les Alpes suisses, le tout depuis son fauteuil.
Cela dit, soyons clairs sur les limites actuelles. Jackson lui-même reconnaît que la navigation reste lente. On n’est pas encore au niveau d’une souris ou d’un écran tactile. Il s’agit de sélectionner des éléments à l’écran, pas de reproduire des gestes fins. C’est fonctionnel, c’est utile pour ceux qui n’ont pas d’autre option, mais ce n’est pas encore une alternative grand public.
Lire Aussi : L’évolution de la durabilité des iPhone (2008 -2025)
Où se situe Apple par rapport à la concurrence ?
Synchron revendique une première mondiale : être la première entreprise à réussir une intégration native avec un nouveau profil matériel dédié aux interfaces cerveau-ordinateur, le BCI HID.
Du côté de Neuralink, la société d’Elon Musk, la puce N1 a été implantée chez un premier patient début 2024. Le résultat annoncé à l’époque : contrôler un curseur d’ordinateur par la pensée. Les deux approches avancent en parallèle, avec des technologies et des méthodes d’implantation différentes.
Un axe accessibilité qui prend de l’ampleur chez Apple
Ce partenariat s’inscrit dans une stratégie plus large. Apple a déjà déployé Personal Voice, une fonctionnalité permettant aux personnes en train de perdre l’usage de la parole de cloner leur voix. Cette fonctionnalité doit être renforcée avec iOS 19. Des améliorations du suivi oculaire et du suivi de la tête pour la saisie de texte sont également prévues cette année, ainsi que des outils pour réduire le mal des transports sur Mac.
Pour Apple, l’accessibilité n’est pas un à-côté. C’est une direction de développement à part entière, et les interfaces cerveau-ordinateur en deviennent progressivement un pilier.
Lire Aussi : L’iPhone 12 vaut-il vraiment la peine d’être acheté en 2026
Ce qu’il faut retenir
On est encore dans une phase de test avec un nombre limité d’utilisateurs. Mais la brique technologique est posée. Apple dispose désormais d’une couche logicielle capable d’interpréter des signaux cérébraux, et Synchron a le matériel pour les capter. Pour les personnes atteintes de paralysie ou de maladies neurodégénératives, c’est une avancée concrète, pas une promesse lointaine.
La vraie question n’est plus de savoir si c’est possible. C’est de savoir à quelle vitesse ça va progresser.
