Tout d’abord bonjour à tous !
Je me permets de venir ici vous demander de l’aide au sujet d’une fonction que je dois implémenter sur R, un langage que j’ai vraiment du mal à prendre en main…
Je m’explique:
Je travaille actuellement en statistique sur la régression probit, dont le modèle est "régi" par une fonction de répartition dépendant de 2 constantes que l’on notera ici a et b.
En dérivant par rapport à chacune des constantes la log-vraisemblance de ce modèle, on obtient deux équations que l’on cherche à annuler pour maximiser la vraisemblance et donc cela dépend de 2 valeurs particulières a et b à déterminer, prises par a et b respectivement.
L’idée mathématique (que l’on m’impose ici) est d’avoir recours à l’algorithme de Newton-Raphson pour trouver les valeurs a et b telles que les 2 dérivées partielles s’annulent.
Si mathématiquement j’arrive bien à résoudre cette question, le problème est que je n’arrive pas à implémenter (en langage R) une fonction qui estime ces deux constantes du max de vraisemblance avec N-R en prenant en paramètre un échantillon de variables générées au préalable.
J’espère que mes explications sont assez claires et je vous remercie d’avance de votre aide éventuelle !
Alex