Ok Guillaume : L'exercice n'étant pas clôturé, j'ai supprimé mon code...
Ok Guillaume : L'exercice n'étant pas clôturé, j'ai supprimé mon code...
Tu m'as mis le doute. J'ai vérifié, il y a 2 choix aussi pour ml-class (advanced et basic, dans les préférences). Et pour le advanced, je n'ai pas vu que cet exercice était optionnel.Envoyé par bertry
En effet, il y a bien deux niveaux : Basic et Advanced ( et je suis bien en advanced, ouf! )
Mais pour ce qui est de mon problème : page 14 de l'énnoncé ex1.pdf :Et c'est pareil pour l'évaluation avec la méthode "Normal équation" : En bas de la page 14 :Using the best learning rate that you found, run the ex1 multi.m script
to run gradient descent until convergence to find the final values of . Next,
use this value of to predict the price of a house with 1650 square feet and
3 bedrooms. You will use value later to check your implementation of the
normal equations. Don’t forget to normalize your features when you make
this prediction!
You do not need to submit any solutions for these optional (ungraded)
exercises.En tout cas, grace à toi, je trouve maintenant la même valeur avec les deux méthodesOptional (ungraded) exercise: Now, once you have found using this
method, use it to make a price prediction for a 1650-square-foot house with
3 bedrooms. You should find that gives the same predicted price as the value
you obtained using the model fit with gradient descent (in Section 3.2.1).
PS : seul les exercices sur la régression monovariable sont obligatoires ( 100 points ). Les exercices sur la régression multivariable, eux, sont optionnels ( 50 points de bonus ).
Ah, il y a un pdf ?
J'avais copier le code dans un répertoire de travail, du coup j'avais oublié qu'il y avait un pdf dans l'archive et je ne l'ai pas lu. Je comprends mieux pourquoi j'avais du mal à comprendre ce qu'il fallait faire en lisant simplement les commentaires dans le code
Merci
La je galère vraiment sur le 3. (Simple Bayes Net 2) J'ai fait tout le reste mais là je ne vois vraiment pas par où commencer...
C'est exactement la même démarche que pour 3-23 mais avec 3 noeuds
Bonjour
J'ai un problème avec mlclasss-ex2 costFunctionReg.m. La valeur de J pour initial_theta est correcte, les graphs sont bons... mais la soumission me dit que c'est pas bon. J'ai pas vu d'erreurs dans mon code (mais je devrais peut être aller dormir...) Si quelqu'un voit où ça cloche, je suis preneur.
costFunctionReg.m :
sigmoid.m :
Code : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8 h = sigmoid(X * theta); regul = lambda / (2*m) * sum(theta(2:length(lambda)) .^ 2); J = 1/m * sum( -y .* log(h) - (1-y) .* log(1 - h) ) + regul; grad(1) = 1/m * sum((h .- y) .* X(:,1)); for ii = 2:length(grad) grad(ii) = 1/m * ( sum((h .- y) .* X(:,ii)) - lambda * theta(ii) ); end;
Merci
Code : Sélectionner tout - Visualiser dans une fenêtre à part g = 1 ./ (1 .+ exp(-z));
Salut,
C'est peut-être ce lambda là :
qui doit être remplacé par theta. Mais à 4h30 du matin, difficile d'avoir les idées claires...
Code : Sélectionner tout - Visualiser dans une fenêtre à part regul = lambda / (2*m) * sum(theta(2:length(lambda)) .^ 2);
Merci. J'avais trouvé cette erreur ce matin en me relisant.
Par contre, j'ai encore une erreur sur le calcul du gradient. Et maintenant je suis réveillé
EDIT : ok, j'ai trouvé sur le reddit. Il y a une différence dans la formule de calcul du gradient entre le pdf de l'exercice et le cours.
Malgré mes recherches, je n'arrive pas à trouver d’où vient ton erreur. La valeur de J que je calcule ton code et le mien sont les même avec les deux méthodes.
Je ne sais pas si c'est lié mais Matlab me refuse (h. - y) et préfère (h - y)
En ce qui me concerne, après avoir parcouru à nouveau le cours, il y a une question à laquelle je ne trouve pas de réponse :
Dans la video VI. LOGISTIC REGRESSION : Simplified Cost Function and Gradient Descent, calez-vous à la minute 6:45
Là, il explique que d(J(theta))/dthetaj = 1/m *Somme ... : là OK je suis d'accord
Mais juste après à la minute 7 : 00 quand il remplace d(J(theta))/dthetaj par la dérivée calculée, le 1/m disparait :
thetaj := thetaj - alpha * Somme ... : Là je ne comprend plus!
Je ne comprends pas pourquoi le 1/m disparait du calcul! Est-ce une faute de frappe?
Je n'ai pas réussi à trouver quelque-chose sur le forum du cours à ce sujet
Edit : Il semble bien qu'il s'agisse d'une faute de frappe, le 1/m réapparait dans les formule du chapitre Regularization
Can 35,000 People Learn Anything from an Online Class? http://mindshift.kqed.org/2011/11/ca...-online-class/
Salut,
Je bloque sur l'exo 5-2
J'ai calculé f1, f2, f3 dans les 3 cas, mais après que dois-je en faire? Comment faire pour savoir si F est plus intéressant que G?
Cet exo est manifestement lié aux cours 10-20 et 10-21 ( Pac Man 1 & 2 ) où il est question de coefficients wi lies au paramètres fi, dois-je calculer les wi?
Si je me contente d'additionner les fi dans chaque cas, j'ai toujours G>F!
Et je dois être le seul à ne pas comprendre car je ne trouve rien sur les forums liées à ce cours!!!
Edit : Je crois que je viens de comprendre d’où venait mon incompréhension : je n'avais pas compris qu'il fallait comparer par rapport à l'état donné en haut de l’énoncé ! Je croyais qu'il fallait calculer les valeurs de Q(S,a) dans les trois cas et choisir le meilleur!!
2 liens également sur l'exo 5-2 :
Salut à tous,
Je viens de voir sur le forum du ML-class ( post : Advanced Machine Learning Course In The Future? et Free Online Classes for Jan/Feb 2012 ) que d'autre cours, tout aussi passionnants, sont prévus pour le mois de janvier :
Computer Science 101 by Nick Parlante @ cs101-class.org
Natural Language Processing by Dan Jurafsky and Chris Manning @ nlp-class.org
Software Engineering for SAAS by Armando Fox and David Patterson @ saas-class.org
Human-Computer Interfaces by Scott Klemmer @ hci-class.org
Game Theory by Matthew Jackson and Yoav Shoham @ game-theory-class.org
Probabilistic Graphical Models by Daphne Koller @ pgm-class.org
Machine Learning by Andrew Ng @ jan2012.ml-class.org (Same class as current ml-class.org)
Cryptography by Dan Boneh @ crypto-class.org
Design and Analysis of Algorithms I by Tim Roughgarden @ algo-class.org
Lean Launchpad by Steve Blank @ launchpad-class.org
Technology Entrepreneurship by Chuck Eesley @ venture-class.org
C'est noël avant l'heure!!! ...
...A ben non, c'est en janvier...
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager