Sémiotique et IA

Interpréter, c’est chercher à prêter du sens à ce que nous voyons, en mettant en relation des détails que nous reconnaissons. Nous mettons en relation ce que nous voyons (les signifiants de l’image) avec ce que nous y associons comme idées. Le passage de l’un à l’autre s’effectue par la grille de lecture du sujet qui regarde, et qui filtre les stimuli visuels envoyés par l’image.

Les filtres interprétatifs empêchent de voir tout dans une image. S’agit-il pourtant forcément d’un biais ?

Grâce aux développements récents du machine learning, on peut faire de sorte qu’un programme informatique voit tout dans une image. Or, c’est justement parce qu’il est si clairvoyant, parce qu’il n’arrive pas à sélectionner, que le programme ne réussit pas vraiment à interpréter une image. Filtrer ce que nous voyons est nécessaire pour construire du sens. 

Nous avons ouvert un chantier de recherche commun avec le machine learning pour sonder ce qui caractérise spécifiquement la « vision humaine ». 

Il s’agit à la fois de travailler sur l’explicabilité des résultats « interprétatifs » fournis par la machine, et d’avancer ensemble sur une modélisation la plus fine possible du processus de sémiose. 

Nos objectifs :


Sonder la composition des « filtres interprétatifs » qui interviennent dans la production du sens.

Préciser la pondération entre l’impact neurologique des stimuli et les filtres interprétatifs dans le processus de production du sens.

Renforcer l’explicabilité des résultats des processus de machine learning.

Repositionner les sciences sociales, largement absentes en recherche sur le machine learning.