Il y a des champs où l’utilisation d’algorithmes typés «génétiques» (avec des sélections parmi des populations, et des notions de «mélange des bons éléments de la population», ainsi que des doses d’aléatoire) est utilisé conjointement à des méthodes typées «réseaux de neurones». Par exemple l’algorithme NEAT utilise des notions d’algorithmique génétique dans l’optique de trouver une bonne topologie pour le réseau de neurone couplé. C’est un type d’algorithme qui a été pas trop mal utilisé pour créer des IAs jouant à des jeux vidéos. Typiquement c’est ce qui est utilisé dans cette vidéo qui a pas mal tourné à l’époque: https://www.youtube.com/watch?v=qv6UVOQ0F44.
Je ne pense pas que ça permette d’atteindre ce qui se fait en apprentissage par renforcement aujourd’hui, qui est globalement passé du côté «profond» des réseaux de neurones, mais ça permettait tout de même d’avoir des performances intéressantes, tout en maintenant une architecture de réseau assez simple (et donc assez légère), puisque l’optimisation porte aussi sur l’architecture en elle-même avec NEAT. Je ne suis en revanche pas trop au courant de méthodes axées algorithmes génétiques et appliquées à l’imagerie, mais ça doit sûrement exister.
Ensuite (bien que je n’aie pas exactement compris ton besoin exact, je fais rapidement un survol de ce qui me vient à l’esprit sur le moment), bien que la génération / traitement d’images ou vidéos est aujourd’hui plutôt portée par les utilisations de réseaux profonds et les approches adversairiales (surtout pour les résultats les plus «impressionnants»), il y a encore pas mal de travaux qui proposent des choses non basée sur l’apprentissage et restant néanmoins intéressantes.
Je pense par exemple à la méthode EbSynth, qui date de l’an dernier (vidéo de démo, papier), que je trouve assez impressionante, et qui, si mes souvenirs sont bons et que je ne dis pas de bêtises n’utilise pas d’apprentissage en son sein (mais est reste assez axé sur une interaction avec l’utilisateur-artiste).
Toujours récemment, il y a les méthodes à base de transport-optimal qui sont assez à la mode en imagerie, parfois couplée avec du machine-learning traditionnel, parfois non. Par exemple pour du transport d’histogramme, transfert de couleurs (au hasard des résultats comme ceci pour des images, ou ceci pour des videos).
Ensuite, il y a encore pas mal de trucs plus anciens (à savoir il n’y a pas si longtemps, mais juste avant que les réseaux de neurones ne deviennent trop prépondérants) qui restent pertinents, entre autres le Poisson Processing, les segmentations à base de Champs de Markov, toutes les questions super-étudiées d'inpainting, la génération de texture… Enfin, l’imagerie est un domaine assez ancien, donc tu peux trouver un paquet de choses à faire qui n’utilisent pas d’approche «apprentissage profond», et ce pour la plupart des questions qui sont encore d’actualité aujourd’hui. Globalement je dirai que pour la génération de visages, les réseaux profonds ont vraiment apporté des choses super impressionnantes, mais pour un paquet d’autres questions, on avait déjà des solutions plus ou moins satisfaisantes avant d’utiliser des réseaux de neurones.
De manière générale, tu peux te faire des bons tours d’horizon du domaine en regardant par exemple la liste des articles publiés à SIGGRAPH chaque année, où tu as parmi ce qui se fait de mieux, et tu peux voir qu’il n’y a pas que du deep-learning, et vraiment pleins de domaines auxquels toucher: https://kesen.realtimerendering.com/sig2019.html.
Ensuite, un autre point auquel il faut faire attention, c’est que ne pas utiliser de méthodes à base d’apprentissage (dans lesquelles la majorité du travail en terme de calculs est souvent fait pendant l’apprentissage) ne résout pas nécessairement la question du calcul, vu que certaines restent assez lourdes à mettre en place, et déportent le calcul au moment de l’utilisation sur chaque image / projet. Comme toujours, c’est affaire de compromis…