Modèle de régression logistique multivariée

où f (X) est une fonction analytique dans X. Avec ce choix, le réseau neuronal à une seule couche est identique au modèle de régression logistique. Cette fonction a un dérivé continu, qui lui permet d`être utilisé dans la rétropropagation. Cette fonction est également préférée car son dérivé est facilement calculé: dans le modèle de régression linéaire multiple, Y a une distribution normale avec une moyenne où les coefficients β i {displaystyle beta _ {i}} sont les paramètres du modèle. Notez qu`il s`agit d`un modèle linéaire: le log-Odds l sont une combinaison linéaire des prédicteurs x 1 {displaystyle x_ {1}} et x 2 {displaystyle x_ {2}}, y compris un terme constant β 0 {displaystyle beta _ {0}}. Les cotes correspondantes sont l`exposant: la régression logistique peut être binomiale, ordinal ou multinomiale. La régression logistique binomiale ou binaire traite des situations dans lesquelles le résultat observé pour une variable dépendante ne peut avoir que deux types possibles, «0» et «1» (qui peuvent représenter, par exemple, «Dead» vs «Alive» ou «Win» par rapport à «perte»). La régression logistique multinomiale traite des situations où le résultat peut avoir trois types ou plus possibles (p. ex., «maladie A» contre «maladie B» contre «maladie C») qui ne sont pas commandés. La régression logistique ordinale traite les variables dépendantes qui sont commandées. Les statistiques sont utilisées en médecine pour la description des données et l`inférence.

Des statistiques inférentielles sont utilisées pour répondre à des questions sur les données, pour tester des hypothèses (formulation des hypothèses alternatives ou nulles), pour générer une mesure d`effet, typiquement un ratio de taux ou de risques, pour décrire des associations (corrélations) ou pour modéliser relations (régression) dans les données et, dans de nombreuses autres fonctions. Habituellement, les estimations ponctuelles sont les mesures des associations ou de l`ampleur des effets. La confusion, les erreurs de mesure, le biais de sélection et les erreurs aléatoires rendent peu probable les estimations ponctuelles égales à celles qui sont vraies. Dans le processus d`estimation, l`erreur aléatoire n`est pas évitable. Une façon de tenir compte est de calculer les valeurs de p pour une plage de valeurs de paramètre possibles (y compris la valeur null). La plage de valeurs, pour laquelle la valeur de p dépasse un niveau alpha spécifié (typiquement 0,05) est appelée intervalle de confiance. Une procédure d`estimation d`intervalles, dans 95% des répétitions (études identiques à tous égards sauf erreur aléatoire), produira des limites qui contiennent les vrais paramètres. On fait valoir que la question de savoir si la paire de limites produite à partir d`une étude contient le vrai paramètre ne pouvait pas être répondue par la théorie ordinaire (fréquentiste) de la confiance intervals1.

Les approches Frequentist dérivent des estimations en utilisant les probabilités de données (valeurs de p ou probabilités) comme mesures de compatibilité entre les données et les hypothèses, ou en tant que mesures du support relatif que les données fournissent des hypothèses. Une autre approche, la bayésienne, utilise des données pour améliorer les estimations existantes (antérieures) à la lumière des nouvelles données. Une bonne utilisation de toute approche nécessite une interprétation attentive de statistiques1.