L'un des articles liés ci-dessus fait référence à l'utilisation d'un test de rapport de vraisemblance, bien que vos modèles doivent être imbriqués les uns dans les autres pour que cela fonctionne (c'est-à-dire que tous les paramètres dans l'un des modèles doivent être présents dans le modèle contre lequel vous le testez) .
RMSE est clairement une mesure de l'adéquation du modèle avec les données. Cependant, le rapport de vraisemblance l'est aussi. La probabilité pour une personne donnée, dit Mme Chen, est la probabilité qu'une personne avec tous ses paramètres ait le résultat qu'elle a eu. La probabilité conjointe de l'ensemble de données est la probabilité de Mme Chen * la probabilité de Mme Gundersen * la probabilité de Mme Johnson * ... etc.
L'ajout d'une covariable, ou d'un nombre quelconque de covariables, ne peut pas vraiment aggraver le rapport de vraisemblance, je ne pense pas. Mais cela peut améliorer le rapport de vraisemblance d'un montant non significatif. Les modèles qui correspondent mieux auront une probabilité plus élevée. Vous pouvez tester formellement si le modèle A correspond mieux au modèle B. Vous devriez avoir une sorte de fonction de test LR disponible dans n'importe quel logiciel que vous utilisez, mais fondamentalement, la statistique de test LR est -2 * la différence des journaux des probabilités, et elle est distribuée khi-carré avec df = la différence dans le nombre des paramètres.
De plus, comparer l'AIC ou le BIC des deux modèles et trouver le plus bas est également acceptable. AIC et BIC sont essentiellement les logarithmes du risque pénalisés pour le nombre de paramètres.
Je ne suis pas sûr d'utiliser un test t pour les RMSE, et je m'y appuierais à moins que vous ne puissiez trouver un travail théorique qui a été fait dans le domaine. Fondamentalement, savez-vous comment les valeurs de RMSE sont distribuées de manière asymptotique? Je ne suis pas sûr. Quelques discussions supplémentaires ici:
http://www.stata.com/statalist/archive/2012-11/index.html#01017