Règles du forum

Le langage Ada uniquement, pas les compilateurs. Les questions de sémantique et de langage et les questions techniques liées à une application en particulier, son deux choses différentes. Si nécessaire, un forum sur GNAT et les autres compilateurs, tel JanusAda, sera ouvert.

Auteur Message
zen
Modératrice
Avatar de l’utilisateur
Emmanuel Sens a écrit : 
N'étant pas spécialiste en blocage et autre tacle, j'attends votre discution sur le sujet.

Hahaha! Pas avec moi hein !
Je suis une manuelle moi. Parle moi de monter un meuble, faire un bel album photo avec du carton et du papier, peindre un truc (tableau, mur ou fenêtre), tapisser, ou encore changer la chasse de mes chio.... y'a pas de problème mais les échecs ... Nan, nan, j’crois pas…
Désolée.
Profil
Beau Parleur
Avatar de l’utilisateur
Ok, ben j'attendrais une intellectuelle, soit.

Puisque je suis là, je viens de fêter une partie en 16 coup avec abandon des noires.
Mais 16 coup valide avec contre d'une mise en échec de la part des blanc et contre attaque des noires.
Bon il faut encore adapter le seuil de convergence du réseau, je suis dessus.
Donc je vous invite plutôt à partir sur la version 0.1.0a. dans le même répertoire.

J'ai fait varier entre + ou - 0.0 à 0.5 chaque valeur de pièce pour l'apprentissage.
En suite j'utilise les même valeurs aléatoire pour les blancs ; Et la moyen pour les noires.
Profil
Beau Parleur
Avatar de l’utilisateur
Bonjour,
J'ai héberger le projet sur sourceforge : https://sourceforge.net/projects/neurochess/files/

j'ai modifié les intervals de 0.5 ce que porte à 2.0 la diffrence la valeurs variables pieces, bref.
L'essentiel étant que dans la nouvelle version je passe au réseau de neurone des valeurs positives pour les blanches et des valeurs négatives pour les noirs, et j'ai supprimer le neurone d'entrée excédant les 64 cases de l'échiquier.

j'ai obtenu seulement 15 ceup valide à la première itération du processus qui génère 16 partie mat pour les noires et entraine les réseaux, on joue en suite une partie tant que le réseau ne commet pas d'erreur, et ce pour l'éternité.

Voilà j'espère cette fois que c'est bien comme c'est.
Profil
Beau Parleur
Avatar de l’utilisateur
Bonjour, en version 0.2.1a la couche cachée du réseau de neurone passe à 6*64 neurones.
Du coup l'apprentissage est plus long.
Mais j'ai mis un réseau initialisé dans les source sur sourceforge.
Prévoir 12 heures pour générer les 16 partie mat + l'apprentissage. (Sur un viens pc).
Ca joue une 20aine à une 30aine de coup selon.
C'est chouete.
Profil
Administrateur
Avatar de l’utilisateur
Ça pourrait t’intéresser. C’est quelqu’un qui parle, avec un accent Québécois très prononcé Si vous me cherchez, je suis déjà dehors , de la théorie de l’information au sens mathématique, appliquée à la résolution de problèmes.

Apprentissage automatique, §2.7. Formulation probabiliste et théorie de l'information


C’est juste un chapitre parmi une série complète : Apprentissage automatique — Hugo Larochelle.
Profil