On s’intéresse ici à l’estimation des paramètres de la régression logistique lorsque l’on doit traiter des données arrivant de manière séquentielle. Plus précisément, on introduit un nouvel algorithme de Newton stochastique. En effet, ce type d’algorithme permet de traiter les données en flux continu, mais contrairement aux algorithmes de gradient stochastiques usuels, ils permettent d’avoir des pas adaptés pour les différentes directions. On montre leur efficacité en donnant leurs vitesses de convergence et en montrant qu’ils ont un comportement asymptotique optimal.