Archive for the code category

Pas grand chose à montrer, mais j’ai fait un truc! J’ai reçu ma Raspberry PI 2 cette semaine, et en rentrant de week end, le reste du matériel m’attendait dans ma boîte. Six fois plus puissant que le modèle B! Génial, non…?

Bon.

Bref, j’ai passé la soirée à commencer à tout mettre en place. Sauf que ça prend du temps. Donc en attendant, un petit dessin du logo Raspberry.

RaspPi2crayon

ps: pour décrypter un peu ce post, une raspberry PI c’est une sorte de mini-ordinateur qui tient dans la main (et qui coute moins de 40e), et que je met sur le robot Thymio-2.  Cette version, dîte version 2, est beaucoup plus puissante que celle que j’utilisais précédemment, et c’est bien.

Quatre cents poissons virtuels.

fishes

Suivons les à la trace. Chaque image est une collection de 400 instantanés de leurs positions:

swarm-all

IMG_20150208_161237690

Vous avez trouvé ? OK, je resserre la zone de recherche.

IMG_20150208_161219943_HDR

Doubling down!
temple_processed_t3

Aujourd’hui, je lisais au sujet de «equiluminance»: une palette avec des couleurs avec la même luminosité. Apparemment, il confond une partie du système visuel, mais pas tout du système visuel, donc il peut être exploité dans l’art. Voir les tableaux d’Anuszkiewicz (par exemple).

(En passant, «Anuszkiewicz» sonne comme le genre de nom que j’aurais crée quand j’avais 13 ans pour un faux membre de ma famille dans une blague ka-ka.)

Ci-dessous, quelques-unes de mes photos transformées à equiluminescence. J’ai remplacé les teintes avec les valeurs originales de luminescence, et remplacé les luminescences avec une constante.

hongkong_processed_t2

steph_processed_t1

portugalcathedral_processed_t2

Asciiatorisation d’une estampe d’Hokusai, « Mont Fuji Depuis Kanagawa » (1833):

hokusai-ascii

Le mont fuji (détail):

hokusai-fujizoom-ascii

L’image originale et le code (il faut enlever l’extension « .txt »).

Henri Poincaré en ASCII (j’ai écrit un script Python pour faire ça).

poincare-ascii

Cliquez pour voir les fiches SVG, mais ils sont grands (6M)

foret

foret

foret

foret

Et encore le source






Et le source (ruby!).

roborobo-raspberryPi-lres

J’ai atteint mon objectif #1 avec mon Raspberry Pi: faire tourner roborobo, mon simulateur de robot écrit en C++ et qui utilise la SDL. C’est pas un foudre de guerre vu la machine, mais ça tourne, et je n’ai eu aucun problème à compiler et lancer. J’en suis presque étonné.

ps: je précise que c’est bien un billet un-jour-un-truc, l’intérêt scientifique de la chose étant quand même assez limité.

pyramide

J’ai commencé à coder une méthode générique pour ajouter des objets (blocs, ou autres) dans mon monde virtuel.

nuages

J’ai fait un petit bout de code pour mes étudiants cette année, pour leur apprendre à faire de la modélisation d’environnement dynamique (par exemple, programmer des feux de forêt – sur l’image, les arbres en noirs ont brûlés). Ce matin j’ai étendu le code pour projeter l’ombre des nuages sur le sol (normalement ca bouge, mais là c’est une image donc ben…).

techos: java+opengl

Pendant longtemps, j’ai voulu faire des animations par genetic programming. Voila, ma première tentative.

Hypnotique, non? (Faire de la vidéo est vraiment difficile, on disait! Mon timing ici est nul.)

Après avoir lu un article super cool sur la production des motifs textiles, je veux passer de l’échelle de gris à un petite palette des couleurs.

Unu truc «please don’t touch». C’est encore les walkers, mais cette fois, ils ressemblent à des vers. Ils se promènent en évitant d’autres vestiges. S’ils entrent en collision, ils meurent.

Il y a un petit bug: Je ne regarde pas pour les vestiges près de la tête de la walker, puisque je ne veux pas qu’ils voient leur propre corps. Donc, parfois, deux walkers peuvent occuper la même place. Je peux le réparer, mais meh.

warning: risk of epilepsy — musique: tno/factory

Du n’importe quoi avec Processing. La seule particularité: chaque image du rendu vidéo n’est composée que de carrés de tailles identiques, dont la rotation dépend de la luminosité du pixel correspondant sur l’image source (webcam). La forme nous apparaît donc grâce à la rotation particulière de chaque carré. Il y a aussi une sorte de délai (volontaire) dans le traitement des images. Comme quoi, le cerveau et la vision, c’est quand même pas mal balèze.

Un autre exemple, appliqué à un dessin (papier) que j’avais fait hier:

OhMyOwl

O RLY?

Mon petit jaipasfini de jeudi dernier, que j’arrive enfin a finir.
Issu d’un exemple de processing commencé avec niko…

UnJourUnTruc – dans le vent

Encore des cubes, encore du Processing. La bande son, c’est du live avec Animoog (sur ipad), enregistré au dictaphone.

Deuxième essai avec Processing. Surtout, mettez le son à fond.