Un brevet Apple accordé aujourd’hui semble décrire une nouvelle approche de l’identification faciale sous l’écran, qui pourrait également permettre à l’entreprise d’intégrer des capteurs supplémentaires dans un écran d’iPhone.
Le brevet décrit apparemment une évolution de l’approche Dynamic Island, mais appliquée de manière plus souple…
Arrière-plan
L’approche initiale d’Apple pour intégrer Face ID dans l’écran était la célèbre encoche, occupant la zone centrale de la barre d’état en haut d’un iPhone.
Avec les modèles d’iPhone 14 Pro, Apple est plutôt passé à deux découpes dans l’écran lui-même. Celles-ci sont déguisées en une seule découpe en forme de pilule, et la société l’a habilement transformée en une partie de l’interface utilisateur en élargissant la largeur apparente et en y affichant du contenu contextuel.
L’objectif à long terme de l’entreprise, cependant, a longtemps été la « plaque de verre unique », dans laquelle l’écran occupe l’intégralité de la face avant de l’iPhone, ce qui nécessite de trouver d’autres moyens de masquer les composants sous l’écran, comme Face ID modules et caméra frontale.
Apple détient déjà un certain nombre de brevets pour Face ID et Touch ID sous écran, mais la possibilité de les masquer complètement reste encore loin.
Cependant, un nouveau brevet délivré aujourd’hui décrit ce qui semble être une évolution de l’approche Dynamic Island.
Brevet Face ID sous écran
Apple manifestement note qu’une partie du langage du brevet décrit simplement l’implémentation existante de Dynamic Island. Cependant, il va ensuite au-delà, de deux manières.
Premièrement, le brevet décrit une vaste gamme de capteurs pouvant être intégrés à l’écran, y compris des gestes effectués sans toucher l’écran.
Les capteurs sous l’écran qui pourraient être cachés incluent ceux pour Touch ID, les capteurs pour mesurer les gestes tridimensionnels sans contact (« gestes aériens »), les capteurs de pression, les capteurs pour détecter la position, l’orientation et/ou le mouvement (par exemple, accéléromètres, capteurs magnétiques tels que capteurs de boussole, gyroscopes et/ou unités de mesure inertielle contenant tout ou partie de ces capteurs), capteurs de santé, etc.
Les capteurs sous l’écran peuvent également inclure des capteurs optiques tels que des capteurs à mélange automatique et des capteurs de détection et de télémétrie de la lumière (lidar) qui collectent des mesures de temps de vol, des capteurs d’humidité, des capteurs d’humidité, des capteurs de suivi du regard et/ou d’autres capteurs.
Deuxièmement, la position de l’îlot dynamique peut varier, en utilisant une série de minuscules fenêtres transparentes dont la taille et la position apparentes peuvent être efficacement déplacées autour de l’écran, en activant et désactivant sélectivement différents pixels.
Les fenêtres transparentes peuvent être décalées d’une quantité aléatoire dans une direction aléatoire par rapport à un point définissant la grille et/ou peuvent être tournées de manière aléatoire pour augmenter la non-périodicité. Un gradient de transparence peut être formé entre les fenêtres transparentes et la partie opaque environnante de l’affichage. Les fenêtres transparentes peuvent être définies par des bords non linéaires.
Apple indique qu’un écran typique utilisé par ses appareils comporte 13 couches et que la transmission de la lumière à travers ces zones est réduite jusqu’à 80 %, et qu’il pourrait donc être nécessaire de réduire le nombre de couches dans les zones contenant des capteurs.
Mais l’approche semble décrire une méthode de distribution de ces zones d’une manière qui les rendrait invisibles à l’œil nu ; sans interférer avec les performances (par exemple, la sensibilité au toucher) ; et d’une manière qui permet aux pixels voisins d’être sélectivement désactivés pour augmenter la transmission de la lumière.
Découvrez cette vidéo ci-dessous (en anglais) pour plus d’actualités Apple :