Accès aux objets d'art

Introduction

L’accès à l’art et à la culture pour les personnes présentant une incapacité visuelle (PPIV) est souvent complexe, la majorité des œuvres exposées dans les musées reposant sur la vue.

Des solutions pour pallier ce problème existent ; parmi elles, on peut citer les audiodescriptions et les maquettes 3D. Les audiodescriptions existantes non seulement monopolisent l’attention de l’utilisateur, mais elles sont fondées sur l’exploration visuelle car elles sont conçues par des personnes à « vue normale ». Aussi, elles ne sont pas adaptées aux PPIV. La réalisation de maquettes 3D et/ou des quelques rares représentations tactiles est une solution palliative permettant aux PPIV leur exploration manuelle. Cependant, ces solutions tactiles sont en général onéreuses à réaliser, produisent souvent trop de détails, et nécessite l’assistance d’une personne à la « vue normale » pour aider à la compréhension de l’œuvre.

L’exploration tactile autonome constitue un défi actuel et nécessite une simplification des formes. En effet, chaque œuvre d’art étant spécifique, les méthodes automatiques classiques de simplification n’apportent pas une vraie solution. Par ailleurs, une représentation tactile explorée (de façon guidée ou libre) doit induire une représentation mentale de l’objet. Il est de plus important qu’une exploration active (guidée par le regard ou le doigt) permette une représentation mentale de l’objet, ce que les audiodescriptions ne proposent pas toujours car elles sont souvent conçues par des personnes sans incapacité visuelle.

Dans l’objectif d’améliorer l’accessibilité à l’art et la culture pour les PPIV, nous développons une solution matérielle permettant d’afficher des œuvres d’art en combinant les perceptions haptiques (tactile ou kinesthésique) et audio, et permettant leur exploration active. Des solutions logicielles ad hoc vont faciliter la simplification vers cette représentation multimodale.

Représentation Tactile d'une Oeuvre

Des représentations tactiles s’appuient sur les contours (des frontières) des objets car ils permettent de les localiser et les délimitent dans une scène. En suivant les contours, il est possible d'imaginer l’objet (créer son image mentale) et le reconnaître. Sur la figure 1 (à droite), nous avons présenté par les contours la scène « le corbeau et le renard », extraite de la Tapisserie de Bayeux (image de gauche). On peut observer que les représentations tactiles de différents éléments de cette scène sont simplifiés, on a essayé de préserver les caractéristiques essentielles permettant les reconnaître (un gist tactile).

Le corbeau et le renard, original (à gauche) et contours (à droite) Figure 1. Scène « le corbeau et le renard » : image de la Tapisserie de Bayeux et sa représentation tactile par les contours.

En reconnaissant les objets représentés, leur nombre et leur emplacements relatifs il est possible de comprendre une scène (de se créer une représentatrion mentale d'une scène).

Comment obtenir un gist tactile ?

Notre première approche de création d’un gist tactile se fond sur la segmentation sémantique d’une scène. Cette segmentation permet de regrouper des parties de l’image dans des catégories d’objets génériques (simplifiés). La figure 2 illustre ce concept.

Segmentation sémantique (à gauche) et segmentation d’instance (à droite) Figure 2. Segmentation sémantique et segmentation d’instance (source : https://ichi.pro/fr/segmentation-d-instance-en-une-seule-etape-un-examen-33996392156233).

Deux approches sont les plus souvent considérées pour segmenter sémantiquement une image :

  1. La segmentation en contours
  2. La segmentation des régions
Ces deux classes de méthodes ont pour objectif de simplifier l’image en éliminant ou simplifiant grandement les informations contenues (couleurs, détails, etc.). La séparation du contenu d’une scène en régions (zones grossières, intérieur d’objets), et en contours (frontières d’objets) a pour but de faciliter l’interprétation de l’organisation spatiale du contenu de l’image et trouver une représentation tactile.

La figure 3 (image de gauche) présente la scène 37 de la Tapisserie de Bayeux, l’image du centre donne les résultats de sa segmentation en régions (split-and-merge) et celle de droite donne sa représentation en contours (l’algorithme HED, Holistically Nested Edge Detection, un réseau de neurones convolutifs).

Segmentation en régions (au centre) et en contours (à droite) de la scène 37 de la Tapisserie de Bayeux (à gauche) Figure 3. Segmentation en régions (image du centre) et en contours (image de droite) de la scène 37 de la Tapisserie de Bayeux.

Création de maquettes 3D ou 2,5D

Les maquettes 3D ou 2.5D (ou en relief) sont un autre moyen pour accéder au contenu des peintures. Notre approche de la réalisation de maquette est fondée sur la fabrication additive (ou l’impression 3D).

Notre modèle d’un objet à imprimer résulte d’une combinaison de reconstruction 3D d’une œuvre à partir de son image 2D acquise avec une caméra classique, et des informations 3D obtenues grâce à la technique stéréophotométrie étendue à l’acquisition d’image à travers une vitre.

La figure 4 (extraite de la scène 23 de la Tapisserie de Bayeux) présente le duc Guillaume de Normandie (image de gauche), le gist visuel/tactile de la figure de Guillaume (image du centre) et une représentation en relief (2,5D) de duc de Guillaume (image de droite).

Présentations de Duc Guillaume le Conquérant Figure 4. Présentations de Duc Guillaume le Conquérant (de gauche à droite) : image de la Tapisserie, gist visuel et en relief (2,5D).

La figure 5 (extraite de la scène 1 de la Tapisserie de Bayeux) présente le roi Edouard (image de gauche), le gist visuel & tactile de la personne du roi et la carte de normales (à droite) estimée par stéréophotométrie (15 millions de pixels chacune).

Différentes représentations de roi Edouard Figure 5. Différentes représentations de roi Edouard (extrait de la Tapisserie de Bayeux).

La figure 6 extraite de la peinture conservée au Musée de Martainville (image de gauche) a permis de créer le modèle (sous Blender, image au centre) de rouet imprimé en 3D (image de droite).

Rouet Figure 6. Rouet (musée de Martainville) et ses différentes représentations.

Vers une présentation multimodale d'une oeuvre d'art

Nous présentons une solution développée pour les Musées pour améliorer l’accessibilité aux œuvres d’art pour les PPIV. Basée sur une interface audio-tactile novatrice, cette solution permet l’exploration active et indépendante d’œuvres d’Art simplifiée en une représentation plus intuitive pour les PPIV, par une solution combinant détection de contours et segmentation sémantique. La recherche continue pour modifier le processus de segmentation afin de le rendre collaboratif et interactif. Nous prévoyons notamment le développement d’interfaces graphiques intuitives, afin que la segmentation puisse être manuellement ajustée (Méthode de Superpixels) par des spécialistes tels que des conservateurs de musées, pour mieux restituer les intentions de l’auteur de l’œuvre. Les premiers résultats de nos recherches ont permis de constater qu’une présentation multimodale : tactile/haptique – audio (simple) d’une œuvre d’art facilite grandement sa compréhension. Aussi, dans le cadre de ce projet, un ensemble d'audio-descriptions simples va accompagner une exploration tactile d’objet. The first results of our research showed that a multimodal presentation: tactile/haptic - audio (simple) of an artwork greatly facilitates its understanding. Also, within the framework of this project, a set of simple audio descriptions will accompany a tactile exploration of an object.