Conduite Algorithmique

Conduite Algorithmique

Depuis l’été 2017, Etienne Richan assiste l’artiste François Quévillon dans la création de sa nouvelle oeuvre : Conduite Algorithmique. «[Elle] fait partie d’un corpus qui s’intéresse aux technologies utilisées par les véhicules autonomes et aux compilations de caméras embarquées sur les automobiles diffusées sur le web. Le dispositif met en relation le comportement programmé de la robotique mobile avec la nature imprévisible du monde.»¹

L’installation audiovisuelle présente des milliers de clips vidéo sélectionnés parmi des vidéos capturées en voiture par François alors qu’il traversait le Canada et les États-Unis. Les spectateurs sont invités à explorer une expérience quotidienne (la conduite) du point de vue des informations enregistrées et analysées par un ordinateur. Des techniques de vision par ordinateur, d’analyse du son et de traitement du signal sont utilisées pour extraire des caractéristiques descriptives de chaque clip vidéo. Un flux vidéo sans fin est généré par une recherche automatique de vidéos qui correspondent aux caractéristiques en fluctuation.

ConduiteDaimon_6011_2400

L’exploration de cette banque de vidéos se fait par l’entremise d’une interface graphique qui  permet de spécifier les valeurs désirées de certaines caractéristiques. L’interface est composée d’un écran affichant les données sonores et visuelles utilisées dans l’analyse et d’une rangée de boutons rotatifs permettant de contrôler la valeur souhaitée de chaque caractéristique. Par exemple, en tournant le bouton étiqueté Vitesse sur son réglage le plus bas,  on visionnera un des vidéos où la voiture est à l’arrêt. En tournant le bouton au maximum, le spectateur se retrouvera probablement dans la voie de dépassement d’une autoroute.DriverlessCarAfterlife2400-768x662

Au total, 21 caractéristiques sont disponibles pour explorer les modalités audio, visuelle et véhiculaire. Les fonctions audio permettent de spécifier des paramètres tels que le volume ou la hauteur des sons capturés lors de l’enregistrement, tandis que les caractéristiques du véhicule sont liées aux capteurs de la voiture, telles que la température ambiante, le régime moteur ou la vitesse du véhicule. Les caratéristiques visuelles reposent principalement sur la segmentation sémantique des images par SegNet². Ce réseau de neurones profond produit une étiquette colorée pour chaque pixel d’une image. Chaque couleur correspond à une catégorie sémantique telle qu’un arbre, un véhicule, une route, un bâtiment, un piéton, etc. Le fait d’augmenter la valeur du bouton correspondant à la catégorie arbre affichera des vidéos où le champ de vision est dominé par la végétation. Ceci peut être combiné avec une valeur faible de volume pour rechercher des scènes paisibles dans la nature. Inversement, en maximisant le volume et en minimisant l’arbre, on se retrouve dans un environnement urbain bruyant.

L’œuvre a été présentée pour la première fois au public lors d’une résidence en octobre à Daïmon, à Gatineau. Par la suite, elle a été présentée à Sporobole à Sherbrooke du 5 au 25 novembre.

D’autres œuvres de l’artiste, y compris des collaborations antérieures avec d’autres membres de NECOTIS, peuvent être visionnées sur le site Web de François: francois-quevillon.com


View this post on Instagram

A post shared by François Quévillon (@fquevillon) on

Exhibitions à venir:

ConduiteDaimon_8997_2400-768x525

 

Artiste en résidence à Avatar
Avatar, Quebec (QC), Canada.
Résidence du 8 au 22 janvier 2019.
Présentation le 22 janvier 2019.
Commissaire : Eric Mattson.

Exposition Manœuvrer l’incontrôlable au centre Expression
Expression, Centre d’exposition de Saint-Hyacinthe (QC), Canada.
Exposition du 9 février au 21 avril 2019.
Vernissage le 9 février 2019 à 14h.

 

Credits:

Développement logicel: Etienne Richan
Fabrication du contrôleur : Artificiel (Alexandre Burton et Samuel St-Aubin)

Merci au Conseil des arts du Canada et au Conseil des arts et des lettres du Québec pour leur soutien.

Références:

[1] Tiré de la page web de Conduite Algorithmique. http://francois-quevillon.com/w/?p=1470&lang=fr

[2] Alex Kendall, Vijay Badrinarayanan and Roberto Cipolla « Bayesian SegNet: Model Uncertainty in Deep Convolutional Encoder-Decoder Architectures for Scene Understanding. » arXiv preprint arXiv:1511.02680, 2015.