Pas grand chose à montrer, mais j’ai fait un truc! J’ai reçu ma Raspberry PI 2 cette semaine, et en rentrant de week end, le reste du matériel m’attendait dans ma boîte. Six fois plus puissant que le modèle B! Génial, non…?
Bon.
Bref, j’ai passé la soirée à commencer à tout mettre en place. Sauf que ça prend du temps. Donc en attendant, un petit dessin du logo Raspberry.
ps: pour décrypter un peu ce post, une raspberry PI c’est une sorte de mini-ordinateur qui tient dans la main (et qui coute moins de 40e), et que je met sur le robot Thymio-2. Cette version, dîte version 2, est beaucoup plus puissante que celle que j’utilisais précédemment, et c’est bien.
Aujourd’hui, je lisais au sujet de «equiluminance»: une palette avec des couleurs avec la même luminosité. Apparemment, il confond une partie du système visuel, mais pas tout du système visuel, donc il peut être exploité dans l’art. Voir les tableaux d’Anuszkiewicz (par exemple).
(En passant, «Anuszkiewicz» sonne comme le genre de nom que j’aurais crée quand j’avais 13 ans pour un faux membre de ma famille dans une blague ka-ka.)
Ci-dessous, quelques-unes de mes photos transformées à equiluminescence. J’ai remplacé les teintes avec les valeurs originales de luminescence, et remplacé les luminescences avec une constante.
J’ai atteint mon objectif #1 avec mon Raspberry Pi: faire tourner roborobo, mon simulateur de robot écrit en C++ et qui utilise la SDL. C’est pas un foudre de guerre vu la machine, mais ça tourne, et je n’ai eu aucun problème à compiler et lancer. J’en suis presque étonné.
ps: je précise que c’est bien un billet un-jour-un-truc, l’intérêt scientifique de la chose étant quand même assez limité.
J’ai fait un petit bout de code pour mes étudiants cette année, pour leur apprendre à faire de la modélisation d’environnement dynamique (par exemple, programmer des feux de forêt – sur l’image, les arbres en noirs ont brûlés). Ce matin j’ai étendu le code pour projeter l’ombre des nuages sur le sol (normalement ca bouge, mais là c’est une image donc ben…).
Unu truc «please don’t touch». C’est encore les walkers, mais cette fois, ils ressemblent à des vers. Ils se promènent en évitant d’autres vestiges. S’ils entrent en collision, ils meurent.
Il y a un petit bug: Je ne regarde pas pour les vestiges près de la tête de la walker, puisque je ne veux pas qu’ils voient leur propre corps. Donc, parfois, deux walkers peuvent occuper la même place. Je peux le réparer, mais meh.
Du n’importe quoi avec Processing. La seule particularité: chaque image du rendu vidéo n’est composée que de carrés de tailles identiques, dont la rotation dépend de la luminosité du pixel correspondant sur l’image source (webcam). La forme nous apparaît donc grâce à la rotation particulière de chaque carré. Il y a aussi une sorte de délai (volontaire) dans le traitement des images. Comme quoi, le cerveau et la vision, c’est quand même pas mal balèze.
Un autre exemple, appliqué à un dessin (papier) que j’avais fait hier: