Modèle linéaire ajusté dans un essai clinique randomisé

Encore un billet sur les ajustements dans les essais cliniques randomisés ! Pourquoi s’intéresser à ce sujet ? Parce que plus un modèle et complexe, plus il fait d’hypothèses et plus il est susceptible d’engendrer des biais. Pour un gain de puissance, il paraît difficile d’accepter l’ajout de biais dans un essai clinique randomisé dont le design est pensé pour réduire au maximum les biais. Les seuls biais tolérables sont ceux qui restent infimes, aussi bien en cas de respect des hypothèses faites qu’en cas d’écart à ces hypothèses. Je montrerai par la suite que le modèle identité-gaussien est un bon candidat, même s’il présente quelques imperfections.

Cela me paraît évident, mais je vais répéter que les hypothèses d’absence d’interaction et de linéarité sont toujours fausses, à un degré variable. Par exemple, dans un modèle linéaire généralisé, on a le choix entre plusieurs fonctions de lien (logit, probit, cauchit, cloglog, identité, etc.). Si un des modèles est correct (p.e. linéarité respectée), alors, tous les autres sont faux, puisqu’ils sont fondamentalement contradictoires, sauf dans le cas d’un modèle saturé. Plus vraisemblablement, tous les modèles non saturés sont faux car il n’y a aucune raison qu’une fonction mathématique arbitraire colle parfaitement à la réalité. Néanmoins, les écarts à la linéarité peuvent être modestes ou forts.

Le titre initial de ce billet était « ajustement sur un effet non linéaire dans un essai clinique randomisé ». La théorie initiale de l’auteur, c’était que l’estimateur des moindres carrés du modèle gaussien résistait bien à l’ajustement sur des effets non linéaires, alors que les modèles identité-binomiaux donneraient trop de poids aux sous-groupes où le risque est proche de 0% ou 100% parce que leur variance estimée est trop faible, biaisant les estimations, y compris celles de l’effet du traitement. En pratique, l’estimateur identité-binomial s’est mal comporté même pour des ajustements linéaires. Selon la nature de la non linéarité, les choses peuvent être encore aggravées ou pas. Au total, les estimateurs associés au modèle identité-binomial sont juste plus mauvais que ceux du modèle gaussien, du moins dans le cadre d’un ajustement sur une covariable non corrélée à l’exposition, c’est-à-dire dans le cadre d’essais cliniques randomisés. Au vu de ces résultats, le titre de ce billet a été modifié pour refléter le message.

Nous allons donc nous intéresser à évaluer les biais de différents tests statistiques dans des modèles non ajustés et ajustés sur un facteur pronostique dans le cadre d’essais cliniques randomisés. Un facteur pronostique de forte variance mais de corrélation avec l’outcome variable sera analysé. Les situations de linéarité et de non linéarité seront analysés. Certains effets et écarts à la linéarité seront très forts, de telle sorte que les biais que nous allons décrire seront supérieurs à ceux qu’on rencontrera la plupart du temps. C’est en torturant ainsi les tests que nous identifieront lesquels sont les plus robustes.

Facteur bayésien et puissance corrigée

Généralement, un test qui conduit à un plus gros risque améliore aussi la puissance. Cela est simplement dû au fait que le test est « trop facilement » significatif, peu importe l’hypothèse nulle ou alternative. Afin de pouvoir comparer la puissance deux procédures dont le risque alpha diffère, je définis la notion de « test corrigé », comme un test dont le seuil de significativité nominal est corrigé afin que le risque alpha empirique soit exactement égal à 5%. Le seuil de significativité corrigé est égal au 5ème percentile de la distribution empirique des petits p sous l’hypothèse nulle. Ce test corrigé n’est plus biaisé (risque alpha = 5%). La puissance corrigée est égale à la puissance du test corrigé.

En conditions réelles, il est difficile de créer le test corrigé, car la distribution exacte du facteur pronostique et son lien avec l’outcome ne sont qu’approximativement connus. En pratique, on utilisera le test non corrigé. En conséquence, on vivra avec une inflation du risque alpha et une légère augmentation de la puissance. Par exemple, on passera d’un risque alpha de 5% à 5.1% et d’une puissance de 80% à 85%. Peut-on alors comparer encore les tests qui n’ont pas le même risque alpha ? La réponse est oui, à peu près. Pour ce faire, définissons le facteur bayésien comme le rapport entre la puissance et le risque alpha : FB=Proba(résultat significatif | H1)/Proba(résultat significatif | H0). Cela peut s’interpréter comme un odds ratio de preuve en faveur de H1 lorsque le résultat est significatif. En effet on peut noter Cote(H1)=Proba(H1)/(1-Proba(H1))=Proba(H1)/Proba(H0) la cote de crédibilité a priori de H1, ce qui permet de reformuler le théorème de Bayes comme : Cote(H1 | résultat significatif)=Cote(H1)×FB. Si plusieurs études indépendantes accumulent des preuves, il suffit de multiplier successivement la cote de H1 par les différents facteurs bayésiens afin de calculer la probabilité a posteriori de H1. La proportion de « fausses découvertes » (erreurs de type I) parmi les résultats statistiquement significatifs est fonction de la distribution des probabilités a priori des hypothèses testées (si on cherche n’importe quoi, on trouve n’importe quoi) et des facteurs bayésiens. En considérant que le jeu d’hypothèses testées est figé, un test de meilleur facteur bayésien va fournir une moindre proportion de fausses découvertes.

Cela montre que le facteur bayésien est une statistique pertinente pour la comparaison de tests, mais il a une limite. À facteur bayésien égal, on préfèrera un test plus puissant car, en plus de fournir le même ratio signal/bruit (vraie / fausse découverte), il fournira un plus grand nombre de découvertes, et donc, un plus grand nombre de vraies découvertes en tout. Lorsqu’un test statistique diminue le facteur bayésien mais augmente la puissance, il peut parfois augmenter le nombre de vraies découvertes mais diminuer le ratio vrai/fausse découverte. Dans ces conditions, on ne peut pas dire qu’un test soit complètement supérieur à l’autre.

Exemple : un test avec une puissance à 99% et un risque alpha à 1% est préférable à un test avec une puissance à 99.8% et un risque alpha à 5% car le facteur bayésien est presque cinq fois plus grand, et le nombre de vraie découvertes est à peine diminué.

Par analogie aux tests diagnostiques, le facteur bayésien reflète la VPP/(1-VPP) du test statistique alors que la puissance reflète la sensibilité du test.

Scenarii de simulation

Essai clinique en randomisation simple 1:1 avec N=100, 200 ou 400 patients randomisés

Risque alpha bilatéral nominal : 5%

Outcome binaire : succès vs échec

Ajustement sur un facteur pronostique quantitatif discret, valant 0, 1 ou 2, qui en l’absence de traitement conduit à respectivement, x%, y% et z% de succès sur l’outcome. Plusieurs combinaisons de x, y et z, linéaires et non-linéaires ont été testées.

La distribution du facteur pronostique est : (40%, 40%, 20%) pour les valeurs (0, 1, 2) respectivement.

L’effet du traitement est identique dans chacun des sous-groupes de facteur pronostique.

Deux effets du traitement seront analysés :

  1. Absence totale d’effet (hypothèse « nulle »)
  2. Effet conduisant approximativement à une puissance de 80% pour le modèle gaussien non ajusté (+27.85%, +19.69% ou +13.92% selon que N=100, 200 ou 400) dans chacun des trois sous-groupes pronostiques (hypothèse « alternative »)

Estimateurs comparés :

  1. Modèle identité-gaussien (estimateur : moindres carrés) ajusté sur le facteur pronostique (modèle linéaire général) avec usage d’une statistique t de Student à N-3 degré de liberté pour le test de l’effet traitement
  2. Modèle identité-gaussien non ajusté (équivalent à un test de Student)
  3. Modèle identité-binomial (estimateur : max de vraisemblance) avec test de Wald (sur statistique z approximée à une loi normale centrée réduite) non ajusté
  4. Modèle identité-binomial (estimateur : max de vraisemblance) avec test de Wald (sur statistique z approximée à une loi normale centrée réduite) ajusté sur le facteur pronostique
  5. Modèle identité-binomial (estimateur : max de vraisemblance) avec test du rapport de vraisemblance avec approximation à une loi du chi² de la différence des déviances sous l’hypothèse nulle, non ajusté
  6. Modèle identité-binomial (estimateur : max de vraisemblance) avec test du rapport de vraisemblance avec approximation à une loi du chi² de la différence des déviances sous l’hypothèse nulle, ajusté

Les résultats de tous ces estimateurs ont la même interprétation : différence absolue du risque attribuable au traitement. Par ailleurs, les effets sont supposés se combiner de la même manière (additivité sans transformation) dans ces modèles.

Un modèle identité-binomial et un modèle identité-gaussien avec les mêmes coefficients, prédisent les mêmes espérances aux mêmes observations. Ils ne sont pas tout à fait équivalents car la distribution des observations diffère selon eux. Le modèle identité-gaussien prédit une distribution gaussienne pour la variable à expliquer alors que le modèle identité-binomial prédit une distribution binomiale.

Nous avions déjà montré dans un billet précédent que le modèle identité-gaussien était robuste aux interactions entre le traitement et le facteur pronostique. Nous présumons aussi que le comportement de ce modèle sera bon dans le cas d’un effet non linéaire d’un facteur pronostique car l’estimateur des moindres carrés.

Nombre de simulations : deux millions. Les mêmes données aléatoires ont servi aux 6 tests, de telle sorte que des comparaisons sur séries appariées ont pu être faites pour comparer les performances des estimateurs.

Les incertitudes de simulation, dues au nombre fini de simulations, sont calculées par des intervalles de confiance à 95% selon la méthode de Student à un seul échantillon, à partir de l’échantillon des simulations.

Fréquence de l’outcome

Afin de faciliter la comparaison des résultats, un maximum de scenarii étaient réalisés avec une probabilité marginale de 40% de l’outcome dans le groupe contrôle. Ainsi, on peut considérer que ces scenarii apparaissent dans la même étude, selon le choix du facteur pronostique d’ajustement : faible ou fort, linéaire ou pas.

Gestion des défauts de convergence

Comme la loi binomiale est bornée, certains jeux de coefficients sont impossibles dans un modèle binomial. Par exemple, on ne peut avoir une ordonnée à l’origine à 50%, un facteur pronostique à 1 qui ajoute 30% et un traitement qui ajoute 30%, puisque la combinaison de ces trois effets conduirait à un taux de succès égal à 110%.

Même si le modèle réel est valide, les fluctuations d’échantillonnage conduisent à des fluctuations des coefficients estimés et il arrive qu’il n’y ait plus de jeu de coefficients valide maximisant la vraisemblance de l’échantillon. L’estimateur du maximum de vraisemblance ne converge pas, au sens où la vraisemblance est encore pentue (dérivée non nulle) alors que des observations ont des risques prédits égaux à 100%. Les logiciels statistiques génèrent généralement un message d’erreur dans ces conditions associé ou non au dernier jeu de coefficients avant constatation de la non-convergence.

On peut noter que dans un modèle non ajusté, il n’y a théoriquement toujours un maximum de vraisemblance. Au pire, un des deux groupes atteint 0% ou 100%, mais le maximum de vraisemblance existe toujours. En pratique, les logiciels statistiques ont des difficultés algorithmiques lorsque le maximum de vraisemblance touche ainsi les bords du domaine de définition.

Que ferait le statisticien en charge de l’analyse statistique de l’essai clinique en cas de non-convergence ?

1ère option) Utiliser un estimateur alternatif « de secours », planifié dans le protocole. Cela comprend, par exemple, l’usage du modèle identité-binomial non ajusté, ou l’usage d’un modèle identité-gaussien ajusté ou non, ou encore un test du chi².

2ème option) Utiliser un estimateur alternatif, non planifié dans le protocole car ce cas de figure n’avait pas été anticipé. Il existe alors un risque de P-hacking.

3ème option) Renoncer à fournir un résultat.

Dans le cadre d’essais cliniques randomisés, nous considérons que la 1ère option est la meilleure. Le meilleur modèle de substitution, a priori, est le modèle identité-gaussien avec les mêmes ajustements. C’est ainsi que nous l’avons utilisé dans nos simulations.

Au sens strict, nous n’analysons pas le test du modèle identité-binomial ajusté, mais plutôt la séquence :

  1. Test de Wald ou RV dans un modèle identité-binomial
  2. En cas de défaut de convergence, test de Wald dans un modèle identité-gaussien sur les mêmes données

Valeurs de départ et algorithme

Dans certaines situations, il existe une solution du maximum de vraisemblance tout à fait identifiable, mais le logiciel statistique part de valeurs trop éloignées des coefficients du modèle et se retrouve bloqué au bord du domaine de définition. Pour résoudre ce problème, le choix des coefficients de départ a une grande importance.

Afin d’accélérer la convergence, une première tentative était réalisée avec les coefficients obtenus dans le modèle gaussien avec les mêmes ajustements, via la méthode de décomposition QR à colonne pivot (méthode 0) fournie par la fonction fastglm du package du même nom pour le logiciel R (version 3.6.3). Comme les coefficients du maximum de vraisemblance dans le modèle identité-binomial sont souvent proches de ceux du modèle gaussien, cela permet une convergence rapide. Cependant, cela est aussi à l’origine de défauts de convergence lorsque le modèle gaussien a des prédictions en dehors de l’intervalle [0,1]. En cas d’échec, une deuxième tentative était réalisée avec un intercept à 0.50 et tous les autres coefficients à zéro, prédisant ainsi une chance de succès de 50% pour tous les sujets. Ces coefficients garantissent un éloignement aussi grand que possible des bords du domaine [0,1] et sont associés à une très bonne convergence lorsqu’elle est possible.

Enfin, l’algorithme de fastglm n’est pas toujours optimal. En cas d’échec de cet algorithme avec les deux jeux de valeurs de départ, il était fait appel à la fonction standard stats::glm basée sur la méthode IRWLS (Iteratively ReWeighted Least Squares) avec le deuxième jeu de valeurs de départ prédisant une chance de succès de 50% pour tous les sujets.

Un défaut de convergence était identifié par:

  1. Une erreur lors du fit
  2. Le champ $converged dans l’objet renvoyé par la procédure, valant FALSE
  3. La présence de NA dans les résultats : coefficients du modèle ou petit p.

Résultats modèle Gaussien

N = 100, effet traitement = +27.85 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0510 [0.0507-0.0513]0.0506 [0.0503-0.0509]0.807 [0.806-0.808]0.800 [0.800-0.801]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0510 [0.0507-0.0513]0.0503 [0.0500-0.0506]0.807 [0.806-0.808]0.840 [0.840-0.841]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0510 [0.0507-0.0513]0.0502 [0.0499-0.0506]0.807 [0.806-0.808]0.841 [0.840-0.841]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0510 [0.0507-0.0513]0.0503 [0.0500-0.0506]0.807 [0.806-0.808]0.822 [0.822-0.823]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0510 [0.0507-0.0513]0.0502 [0.0499-0.0505]0.807 [0.806-0.808]0.883 [0.883-0.884]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0510 [0.0507-0.0513]0.0503 [0.0500-0.0506]0.807 [0.806-0.808]0.804 [0.804-0.805]
faible incidence
F=(0.20, 0.20, 0.20)
0.0506 [0.0503-0.0509]0.0499 [0.0496-0.0502]0.847 [0.847-0.848]0.845 [0.844-0.845]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0529 [0.0526-0.0532]0.0511 [0.0508-0.0514]0.830 [0.830-0.831]0.831 [0.830-0.831]
N = 200, effet traitement = +19.69 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0504 [0.0501-0.0508]0.0503 [0.0500-0.0506]0.801 [0.801-0.802]0.797 [0.796-0.797]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0504 [0.0501-0.0508]0.0502 [0.0499-0.0505]0.801 [0.801-0.802]0.833 [0.833-0.834]
effet linéaire fort
F=(0.16, 0.46, 0.76)
0.0504 [0.0501-0.0508]0.0502 [0.0499-0.0505]0.801 [0.801-0.802]0.882 [0.882-0.883]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0504 [0.0501-0.0508]0.0501 [0.0498-0.0504]0.801 [0.801-0.802]0.834 [0.834-0.835]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0504 [0.0501-0.0508]0.0499 [0.0496-0.0502]0.801 [0.801-0.802]0.818 [0.818-0.819]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0504 [0.0501-0.0508]0.0500 [0.0497-0.0503]0.801 [0.801-0.802]0.875 [0.874-0.875]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0504 [0.0501-0.0508]0.0500 [0.0497-0.0503]0.801 [0.801-0.802]0.800 [0.800-0.801]
fort effet en U inversé
F=(0.20, 0.70, 0.20)
0.0504 [0.0501-0.0508]0.0501 [0.0498-0.0504]0.801 [0.801-0.802]0.802 [0.802-0.803]
faible incidence
F=(0.20, 0.20, 0.20)
0.0502 [0.0499-0.0505]0.0499 [0.0496-0.0502]0.867 [0.866-0.867]0.866 [0.865-0.866]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0516 [0.0513-0.0519]0.0505 [0.0502-0.0508]0.812 [0.811-0.812]0.812 [0.811-0.812]
N = 400, effet traitement = +13.92 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0504 [0.0501-0.0507]0.0503 [0.0500-0.0506]0.798 [0.798-0.799]0.797 [0.796-0.797]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0504 [0.0501-0.0507]0.0501 [0.0498-0.0504]0.798 [0.798-0.799]0.834 [0.833-0.834]
effet linéaire fort
F=(0.16, 0.46, 0.76)
0.0504 [0.0501-0.0507]0.0500 [0.0497-0.0503]0.798 [0.798-0.799]0.880 [0.880-0.881]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0504 [0.0501-0.0507]0.0500 [0.0497-0.0503]0.798 [0.798-0.799]0.834 [0.834-0.835]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0504 [0.0501-0.0507]0.0500 [0.0497-0.0503]0.798 [0.798-0.799]0.818 [0.817-0.818]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0504 [0.0501-0.0507]0.0500 [0.0497-0.0503]0.798 [0.798-0.799]0.873 [0.872-0.873]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0504 [0.0501-0.0507]0.0502 [0.0499-0.0505]0.798 [0.798-0.799]0.800 [0.800-0.801]
fort effet en U inversé
F=(0.20, 0.70, 0.20)
0.0504 [0.0501-0.0507]0.0499 [0.0496-0.0502]0.798 [0.798-0.799]0.802 [0.802-0.803]
faible incidence
F=(0.20, 0.20, 0.20)
0.0502 [0.0499-0.0505]0.0501 [0.0498-0.0504]0.884 [0.884-0.885]0.883 [0.883-0.884]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0505 [0.0502-0.0508]0.0502 [0.0499-0.0505]0.803 [0.802-0.803]0.803 [0.802-0.804]

Ces résultats montrent une légère inflation du risque alpha du modèle gaussien non ajusté avec N=100. Cette inflation du risque alpha n’est pas négligeable (0.529) pour une incidence de l’outcome à 50%, mais reste inférieure à +10% relatif (risque alpha < 0.055). Elle est plus faible pour des incidences écartées de 50%. Le modèle ajusté est légèrement plus conservatif tout en étant un peu plus puissant (jusqu’à +8% pour un ajustement sur un fort effet non linéaire) sauf, bien sûr, pour une variable pronostique d’effet nul.

Pour les échantillons plus grands (N=200 et N=400), les effets des traitements ont été réduits afin de maintenir une puissance à 80% environ. Certains scenarii possibles avec N=200 et N=400 n’ont pas été réalisés avec N=100 car certains sous-groupes auraient une incidence de l’outcome au-delà de 100% selon le modèle. Or, nous voulons évaluer les performances des estimateurs, sous l’hypothèse que le modèle est exact, ou invalide seulement sur les défauts de linéarité.

Avec N=200, les risques alpha sont tous très modestes. La puissance gagnée grâce à l’ajustement semble faiblement dépendante de la taille d’échantillon. Ainsi, il semble être aussi intéressant d’ajuster sur un facteur pronostique que l’on ait 400 sujets que 100. C’est compréhensible par le fait que la réduction de variance est d’un facteur assez constant.

Résultats Wald sur identité-binomial

N = 100, effet traitement = +27.85 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0557 [0.0554-0.0560]0.0589 [0.0586-0.0592]0.806 [0.805-0.807]0.795 [0.795-0.796]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0557 [0.0554-0.0560]0.0643 [0.0640-0.0646]0.806 [0.805-0.807]0.779 [0.778-0.779]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0557 [0.0554-0.0560]0.0693 [0.0690-0.0697]0.806 [0.805-0.807]0.771 [0.771-0.772]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0557 [0.0554-0.0560]0.0590 [0.0587-0.0594]0.806 [0.805-0.807]0.824 [0.824-0.825]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0557 [0.0554-0.0560]0.0937 [0.0933-0.0941]0.806 [0.805-0.807]0.737 [0.736-0.738]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0557 [0.0554-0.0560]0.0596 [0.0593-0.0599]0.806 [0.805-0.807]0.793 [0.793-0.794]
faible incidence
F=(0.20, 0.20, 0.20)
0.0559 [0.0556-0.0563]0.0742 [0.0738-0.0745]0.848 [0.848-0.849]0.803 [0.802-0.803]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0566 [0.0562-0.0569]0.0582 [0.0579-0.0585]0.830 [0.829-0.830]0.827 [0.826-0.827]
N = 200, effet traitement = +19.69 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0528 [0.0525-0.0531]0.0539 [0.0536-0.0542]0.801 [0.801-0.802]0.795 [0.795-0.796]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0528 [0.0525-0.0531]0.0553 [0.0550-0.0556]0.801 [0.801-0.802]0.834 [0.833-0.834]
effet linéaire fort
F=(0.16, 0.46, 0.76)
0.0528 [0.0525-0.0531]0.0596 [0.0593-0.0600]0.801 [0.801-0.802]0.825 [0.824-0.825]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0528 [0.0525-0.0531]0.0575 [0.0572-0.0578]0.801 [0.801-0.802]0.822 [0.821-0.823]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0528 [0.0525-0.0531]0.0532 [0.0529-0.0535]0.801 [0.801-0.802]0.825 [0.824-0.825]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0528 [0.0525-0.0531]0.0744 [0.0740-0.0747]0.801 [0.801-0.802]0.825 [0.824-0.825]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0528 [0.0525-0.0531]0.0542 [0.0539-0.0546]0.801 [0.801-0.802]0.797 [0.796-0.797]
fort effet en U inversé
F=(0.20, 0.70, 0.20)
0.0528 [0.0525-0.0531]0.0550 [0.0547-0.0553]0.801 [0.801-0.802]0.797 [0.796-0.797]
faible incidence
F=(0.20, 0.20, 0.20)
0.0527 [0.0524-0.0530]0.0583 [0.0580-0.0587]0.867 [0.867-0.867]0.857 [0.856-0.857]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0539 [0.0536-0.0543]0.0539 [0.0536-0.0542]0.812 [0.811-0.812]0.812 [0.811-0.812]
N = 400, effet traitement = +13.92 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0516 [0.0513-0.0519]0.0520 [0.0517-0.0523]0.798 [0.798-0.799]0.796 [0.796-0.797]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0516 [0.0513-0.0519]0.0523 [0.0520-0.0526]0.798 [0.798-0.799]0.836 [0.835-0.836]
effet linéaire fort
F=(0.16, 0.46, 0.76)
0.0516 [0.0513-0.0519]0.0538 [0.0534-0.0541]0.798 [0.798-0.799]0.894 [0.894-0.894]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0516 [0.0513-0.0519]0.0542 [0.0538-0.0545]0.798 [0.798-0.799]0.831 [0.831-0.832]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0516 [0.0513-0.0519]0.0511 [0.0508-0.0514]0.798 [0.798-0.799]0.820 [0.820-0.821]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0516 [0.0513-0.0519]0.0627 [0.0624-0.0631]0.798 [0.798-0.799]0.863 [0.862-0.863]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0516 [0.0513-0.0519]0.0523 [0.0520-0.0526]0.798 [0.798-0.799]0.800 [0.799-0.800]
fort effet en U inversé
F=(0.20, 0.70, 0.20)
0.0516 [0.0513-0.0519]0.0526 [0.0523-0.0529]0.798 [0.798-0.799]0.801 [0.800-0.801]
faible incidence
F=(0.20, 0.20, 0.20)
0.0513 [0.0510-0.0516]0.0534 [0.0531-0.0537]0.884 [0.884-0.884]0.881 [0.880-0.881]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0512 [0.0509-0.0515]0.0516 [0.0513-0.0519]0.803 [0.802-0.803]0.803 [0.802-0.803]

Le Wald identité-binomial avec N=100 marche très mal dès qu’il y a un ajustement. Même sans ajustement, il y a une petite inflation du risque alpha (> +10% relatif). En présence d’ajustement, le risque alpha peut presque doubler par rapport au risque nominal (effet non linéaire fort, alpha>0.093). La non-linéarité ne pose pas tant problème que la force de prédiction du facteur pronostique (cf effet linéaire fort avec N=200 vs effet en U inversé avec N=200). Paradoxalement, une relation en U inversé va conduire à un biais moins fort (0.0542) qu’un effet linéaire fort (0.0596). Cela est explicable par le fait que l’effet estimé de la covariable sera proche de zéro de telle sorte que le modèle ajusté n’est pas très différent du modèle non ajusté. Il semble que l’inflation du risque alpha arrive surtout quand le modèle prédit à la fois des probas basses et des probas élevées (ce qui est majeur avec le modèle non linéaire fort). La puissance corrigée est plus faible que pour les modèles gaussiens. Avec N=100, l’ajustement fait plutôt perdre en puissance corrigée, alors qu’avec N=200 ou N=400, il fait plutôt gagner.

Avec N=400, le comportement est bien meilleur qu’avec N=100 ou N=200, mais dans les cas extrêmes le risque alpha peut quand même atteindre 6.27% (soit +25% relatif par rapport au risque nominal) avec N=400.

Résultats avec RV sur identité-binomial

N = 100, effet traitement = +27.85 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0525 [0.0521-0.0528]0.0541 [0.0538-0.0544]0.806 [0.806-0.807]0.798 [0.797-0.799]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0525 [0.0521-0.0528]0.0568 [0.0564-0.0571]0.806 [0.806-0.807]0.848 [0.847-0.848]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0525 [0.0521-0.0528]0.0575 [0.0572-0.0578]0.806 [0.806-0.807]0.831 [0.830-0.831]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0525 [0.0521-0.0528]0.0547 [0.0544-0.0550]0.806 [0.806-0.807]0.834 [0.833-0.834]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0525 [0.0521-0.0528]0.0645 [0.0642-0.0649]0.806 [0.806-0.807]0.869 [0.868-0.869]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0525 [0.0521-0.0528]0.0537 [0.0534-0.0541]0.806 [0.806-0.807]0.801 [0.800-0.802]
faible incidence
F=(0.20, 0.20, 0.20)
0.0531 [0.0528-0.0534]0.0620 [0.0617-0.0624]0.844 [0.844-0.845]0.826 [0.826-0.827]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0537 [0.0533-0.0540]0.0541 [0.0538-0.0544]0.831 [0.830-0.831]0.831 [0.830-0.831]
N = 200, effet traitement = +19.69 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0514 [0.0510-0.0517]0.0519 [0.0516-0.0522]0.801 [0.801-0.802]0.796 [0.795-0.797]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0514 [0.0510-0.0517]0.0528 [0.0524-0.0531]0.801 [0.801-0.802]0.835 [0.834-0.835]
effet linéaire fort
F=(0.16, 0.46, 0.76)
0.0514 [0.0510-0.0517]0.0555 [0.0552-0.0558]0.801 [0.801-0.802]0.908 [0.907-0.908]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0514 [0.0510-0.0517]0.0528 [0.0524-0.0531]0.801 [0.801-0.802]0.830 [0.829-0.830]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0514 [0.0510-0.0517]0.0519 [0.0516-0.0522]0.801 [0.801-0.802]0.821 [0.821-0.822]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0514 [0.0510-0.0517]0.0574 [0.0570-0.0577]0.801 [0.801-0.802]0.863 [0.862-0.863]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0514 [0.0510-0.0517]0.0515 [0.0512-0.0518]0.801 [0.801-0.802]0.799 [0.799-0.800]
fort effet en U inversé
F=(0.20, 0.70, 0.20)
0.0514 [0.0510-0.0517]0.0517 [0.0514-0.0520]0.801 [0.801-0.802]0.801 [0.800-0.801]
faible incidence
F=(0.20, 0.20, 0.20)
0.0514 [0.0511-0.0517]0.0544 [0.0541-0.0547]0.866 [0.866-0.867]0.860 [0.860-0.860]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0525 [0.0522-0.0528]0.0520 [0.0517-0.0523]0.811 [0.811-0.812]0.812 [0.811-0.812]
N = 400, effet traitement = +13.92 %
Risque alpha
non ajusté
Risque alpha
ajusté
Puissance corrigée
non ajusté
Puissance corrigée
ajusté
effet nul
F=(0.40, 0.40, 0.40)
0.0509 [0.0506-0.0512]0.0510 [0.0507-0.0513]0.798 [0.797-0.799]0.797 [0.796-0.797]
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.0509 [0.0506-0.0512]0.0512 [0.0509-0.0515]0.798 [0.797-0.799]0.836 [0.835-0.836]
effet linéaire fort
F=(0.16, 0.46, 0.76)
0.0509 [0.0506-0.0512]0.0523 [0.0519-0.0526]0.798 [0.797-0.799]0.894 [0.894-0.895]
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
0.0509 [0.0506-0.0512]0.0512 [0.0509-0.0515]0.798 [0.797-0.799]0.835 [0.835-0.836]
non linéarité alternative
F=(0.33, 0.33, 0.68)
0.0509 [0.0506-0.0512]0.0509 [0.0506-0.0512]0.798 [0.797-0.799]0.818 [0.818-0.819]
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.0509 [0.0506-0.0512]0.0528 [0.0525-0.0532]0.798 [0.797-0.799]0.878 [0.877-0.878]
effet en U inversé
F=(0.24, 0.64, 0.24)
0.0509 [0.0506-0.0512]0.0508 [0.0505-0.0511]0.798 [0.797-0.799]0.801 [0.800-0.801]
fort effet en U inversé
F=(0.20, 0.70, 0.20)
0.0509 [0.0506-0.0512]0.0506 [0.0503-0.0509]0.798 [0.797-0.799]0.803 [0.802-0.804]
faible incidence
F=(0.20, 0.20, 0.20)
0.0508 [0.0505-0.0511]0.0520 [0.0517-0.0523]0.884 [0.883-0.884]0.881 [0.881-0.882]
incidence idéale
F=(0.50, 0.50, 0.50)
0.0508 [0.0505-0.0511]0.0508 [0.0505-0.0511]0.802 [0.802-0.803]0.803 [0.802-0.804]

Pour N=100, le test du rapport de vraisemblance est nettement moins biaisé que le test de Wald dans le modèle identité-binomial. La puissance corrigée est proche de celle du modèle gaussien, mais il y a des petites différences.

Le RV identité-binomial ajusté gagnait un peu en puissance corrigée pour le scenario (N=100) de non linéarité alternative (+1.13%, incertitude +1.11% à 1.15%) et l’effet linéaire moyen (+0.78%, incertitude +0.76% à +0.81%). Le modèle identité-gaussien gagnait en puissance corrigée dans les autres scenarii, jusqu’à +1.72% (incertitude +1.70% à +1.74%) pour le scenario de faible incidence (N=100). Pour le scenario d’incidence idéale (F=(50,50,50)), les deux millions de simulations n’ont pas suffi à trouver la différence (incertitude −0.14‰ à +1.65‰ pour RV moins gaussien).

Avec N=200, les biais étaient nettement plus raisonnables sauf dans les scenarii extrêmes où l’inflation du risque alpha pouvait légèrement dépasser +10% relatif.

Avec N=400, toutes les inflations de risque alpha étaient en dessous de la limite de +10% relatif.

Facteur bayésien

N = 100, effet traitement = +27.85 %
Facteur
Bayésien
id-gauss non ajusté
Facteur
Bayésien
id-gauss ajusté
Facteur
Bayésien
id-binom-wald ajusté
Facteur
Bayésien
id-binom-RV ajusté
effet nul
F=(0.40, 0.40, 0.40)
15.915.913.914.9
effet linéaire moyen
F=(0.24, 0.44, 0.64)
15.916.712.515.2
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
15.916.711.714.7
non linéarité alternative
F=(0.33, 0.33, 0.68)
15.916.414.315.4
effet non linéaire fort
F=(0.10, 0.60, 0.60)
15.917.68.613.8
effet en U inversé
F=(0.24, 0.64, 0.24)
15.91613.715.1
faible incidence
F=(0.20, 0.20, 0.20)
16.816.911.513.7
incidence idéale
F=(0.50, 0.50, 0.50)
15.816.314.515.5
N = 200, effet traitement = +19.69 %
Facteur
Bayésien
id-gauss non ajusté
Facteur
Bayésien
id-gauss ajusté
Facteur
Bayésien
id-binom-wald ajusté
Facteur
Bayésien
id-binom-RV ajusté
effet nul
F=(0.40, 0.40, 0.40)
15.915.914.915.4
effet linéaire moyen
F=(0.24, 0.44, 0.64)
15.916.615.315.9
effet linéaire fort
F=(0.16, 0.46, 0.76)
15.917.61416.5
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
15.916.714.615.8
non linéarité alternative
F=(0.33, 0.33, 0.68)
15.916.415.615.9
effet non linéaire fort
F=(0.10, 0.60, 0.60)
15.917.511.715.3
effet en U inversé
F=(0.24, 0.64, 0.24)
15.91614.915.6
fort effet en U inversé
F=(0.20, 0.70, 0.20)
15.91614.715.6
faible incidence
F=(0.20, 0.20, 0.20)
17.317.314.916
incidence idéale
F=(0.50, 0.50, 0.50)
15.816.115.215.7
N = 400, effet traitement = +13.92 %
Facteur
Bayésien
id-gauss non ajusté
Facteur
Bayésien
id-gauss ajusté
Facteur
Bayésien
id-binom-wald ajusté
Facteur
Bayésien
id-binom-RV ajusté
effet nul
F=(0.40, 0.40, 0.40)
15.915.915.415.7
effet linéaire moyen
F=(0.24, 0.44, 0.64)
15.916.616.116.4
effet linéaire fort
F=(0.16, 0.46, 0.76)
15.917.616.717.2
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
15.916.715.516.4
non linéarité alternative
F=(0.33, 0.33, 0.68)
15.916.416.116.1
effet non linéaire fort
F=(0.10, 0.60, 0.60)
15.917.414.116.7
effet en U inversé
F=(0.24, 0.64, 0.24)
15.91615.415.8
fort effet en U inversé
F=(0.20, 0.70, 0.20)
15.916.115.315.9
faible incidence
F=(0.20, 0.20, 0.20)
17.617.616.617
incidence idéale
F=(0.50, 0.50, 0.50)
15.91615.715.9

Comme attendu, le modèle identité-gaussien ajusté avait un facteur Bayésien constamment supérieur aux autres, sauf en l’absence totale d’effet, scenario dans lequel le modèle non ajusté était très légèrement supérieur. Dans le pire des scenarii d’effet non linéaire fort avec N=100, le facteur bayésien de l’identité-gaussien ajusté (17.6) était deux fois plus grand que celui du Wald identité-binomial (8.6). Ce scenario n’est néanmoins pas très réaliste car il est rare qu’on trouve un facteur pronostic aussi fort et aussi éloigné de la linéarité.

Avec un nombre de sujets élevé (N=400), les écarts s’atténuaient beaucoup entre les tests.

Défaut de convergence

N = 100, effet traitement = +27.85 %
Taux de non-convergence sous H0
id-binom-Wald ajusté
Taux de non-convergence sous H0
id-binom-RV ajusté
Taux de non-convergence sous H1
id-binom-Wald ajusté
Taux de non-convergence sous H1
id-binom-RV ajusté
effet nul
F=(0.40, 0.40, 0.40)
3.2e-053.2e-050.000170.00017
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0.000250.000250.0280.028
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
5e-040.000520.0920.092
non linéarité alternative
F=(0.33, 0.33, 0.68)
1e-041e-040.00140.0015
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.00940.00990.390.4
effet en U inversé
F=(0.24, 0.64, 0.24)
1.4e-051.4e-050.00810.0081
faible incidence
F=(0.20, 0.20, 0.20)
0.00310.00310.00290.0029
incidence idéale
F=(0.50, 0.50, 0.50)
3e-063e-060.00180.0018
N = 200, effet traitement = +19.69 %
Taux de non-convergence sous H0
id-binom-Wald ajusté
Taux de non-convergence sous H0
id-binom-RV ajusté
Taux de non-convergence sous H1
id-binom-Wald ajusté
Taux de non-convergence sous H1
id-binom-RV ajusté
effet nul
F=(0.40, 0.40, 0.40)
0000
effet linéaire moyen
F=(0.24, 0.44, 0.64)
000.000890.00089
effet linéaire fort
F=(0.16, 0.46, 0.76)
5.4e-055.5e-050.0280.028
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
1e-061e-060.00480.0048
non linéarité alternative
F=(0.33, 0.33, 0.68)
004.5e-064.5e-06
effet non linéaire fort
F=(0.10, 0.60, 0.60)
0.000320.000340.130.13
effet en U inversé
F=(0.24, 0.64, 0.24)
001.4e-051.4e-05
fort effet en U inversé
F=(0.20, 0.70, 0.20)
006.6e-056.6e-05
faible incidence
F=(0.20, 0.20, 0.20)
9.7e-059.7e-050.000120.00012
incidence idéale
F=(0.50, 0.50, 0.50)
001.5e-061.5e-06
N = 400, effet traitement = +13.92 %
Taux de non-convergence sous H0
id-binom-Wald ajusté
Taux de non-convergence sous H0
id-binom-RV ajusté
Taux de non-convergence sous H1
id-binom-Wald ajusté
Taux de non-convergence sous H1
id-binom-RV ajusté
effet nul
F=(0.40, 0.40, 0.40)
0000
effet linéaire moyen
F=(0.24, 0.44, 0.64)
0000
effet linéaire fort
F=(0.16, 0.46, 0.76)
000.000480.00048
effet non linéaire moyen
F=(0.19, 0.54, 0.54)
002.5e-062.5e-06
non linéarité alternative
F=(0.33, 0.33, 0.68)
0000
effet non linéaire fort
F=(0.10, 0.60, 0.60)
1e-061e-060.00490.0049
effet en U inversé
F=(0.24, 0.64, 0.24)
0000
fort effet en U inversé
F=(0.20, 0.70, 0.20)
0000
faible incidence
F=(0.20, 0.20, 0.20)
0000
incidence idéale
F=(0.50, 0.50, 0.50)
0000

Aucun défaut de convergence n’a été observé pour les modèles gaussiens. Ces modèles convergent dès qu’il y a au moins une observation par groupe de traitement. Le seul problème peut concerner le calcul du test de Wald, avec une division par zéro si la variance résiduelle est nulle, ce qui ne peut arriver qu’au cas où, sur l’échantillon, le taux d’événement est de 0% ou 100%. Dans le scenario le plus défavorable, (F=(0.20, 0.20, 0.20), N=100), la probabilité que cela arrive est égale à dbinom(0,100, 0.20) = 2×10^-10. Les défauts de convergence n’étaient pas rares avec le modèle identité-binomial. Le risque est un peu plus élevé pour le test du RV que pour le test de Wald car ce premier nécessite d’estimer deux fois le modèle (avec et sans l’effet traitement), mais la différence est négligeable. Les non convergences étaient globalement peu fréquentes (< 1%) sauf avec N=100 en cas d’ajustement sur un facteur pronostique avec effet linéaire moyen (2.8%) ou non linéaire moyen (9.2% de risque) ou fort (39 ou 40% de risque). Ces non convergences doivent être anticipées et proprement planifiées dans le protocole, ce qui nécessite une grande rigueur. En cas d’effet non linéaire, le choix du modèle de secours a une importance non négligeable, étant donné qu’il est fréquemment utilisé.

Dans les modèles binomiaux non ajustés, seuls quatre défauts de convergence ont été retrouvés sur les soixante millions de simulations, tous dans le scenario F=(0.20,0.20,0.20). Le modèle gaussien non ajusté a servi comme modèle de secours dans ces cas.

Biais de l’estimation ponctuelle

Avec N=100, 40% d’événements et un effet traitement de +0.2785, l’estimateur des moindres carrés (modèle identité-gaussien) non ajusté semblait fournir une estimation ponctuelle de biais infime sous H1 : le biais était estimé à moins de 10^-16. Avec N=30, ce même estimateur avait un biais égal à 2×10^-9. Avec N=20, le biais montait à 5×10^-7 restant donc absolument négligeable. Ces calculs extrêmement précis ne sont pas issus de simulations mais de calculs « exacts » (aux arrondis FP64 près) basés sur la connaissance de la distribution binomiale (fonction dbinom() du logiciel R). La précision du résultat est d’environ 10^-16.

L’estimateur des moindres carrés ajusté sous H1 fournissait une estimation ponctuelle dont le biais n’a pas pu être mesuré avec cent millions de simulations (< 1.2×10^-5), même en situation d’ajustement sur une variable non linéaire. Afin d’affiner la précision, pour le modèle avec effet non linéaire fort, vingt millions de simulations ont été réalisées. Le modèle non ajusté ne montrait pas de biais d’estimation ponctuelle sous H1 (incertitude -9.6×10^-6 à +7.5×10^-5) et le modèle ajusté n’en montrait pas plus (incertitude -8.3×10^-6 à +3.0×10^-5).

L’estimateur du maximum de vraisemblance sur le modèle identité-binomial semblait peu sujet aux biais en l’absence d’ajustement. En présence d’ajustement avec N=100, il existait une très légère surestimation en présence d’un effet nul (+0.21‰ absolu, incertitude +0.08‰ à +0.34‰) ainsi qu’en présence d’un effet linéaire moyen (+3.26‰ , incertitude +3.13 à +3.39‰). En présence d’effets non linéaires, le biais pouvait changer dans un sens ou l’autre. Le plus gros biais était enregistré pour le scenario de « non linéarité alternative » avec une espérance de l’estimateur augmenté de +4.41‰ (incertitude 4.28‰ à 4.54‰). Ces biais tendaient à s’atténuer avec la taille d’échantillon. En comparaison à l’erreur habituellement retrouvée sur les estimations, ces biais sont infimes.

Discussion

Étant donné que la fréquence des outcomes d’une loi binaire suit une loi binomiale si les observations sont indépendantes, il paraîtrait logique d’estimer les effets dans un modèle binomial. Paradoxalement les estimateurs habituels d’un modèle gaussien (moindres carrés + Wald) est plus performant (moins biaisé, meilleur facteur bayésien) que les estimateurs dédiés aux modèles binomiaux (maximum de vraisemblance + Wald ou RV). Les modèles identité-binomiaux souffrent aussi de problème de non-convergence s’ils sont ajustés sur de forts facteurs pronostiques, obligeant à anticiper un modèle de secours. Si ce dernier n’est pas spécifié dans le protocole, la voie du P-hacking est ouverte.

La simplicité du modèle linéaire gaussien, sa robustesse aux écarts aux conditions de validité (interactions, défaut de linéarité), le faible risque d’erreur de manipulation du logiciel (contrairement aux effets marginaux calculés à partir d’un modèle logistique), en fait un excellent choix. L’ajustement peut faire gagner un peu en puissance et en facteur bayésien, mais ses limites ont déjà été discutées.

Le théorème central limite garantit la convergence asymptotique vers une loi normale des coefficients d’un modèle linéaire gaussien. L’estimateur de la variance peut être biaisé, sans être jamais asymptotiquement correct en cas d’effet non linéaire. C’est pourquoi sur des échantillons de grande taille on peut envisager de bootstrapper pour obtenir des estimations correctes.

Au total, il n’y a pas de raison d’utiliser les modèles identité-binomiaux dans les essais cliniques randomisés. Ils n’ont aucun avantage par rapport au modèle identité-gaussien.

Rejoindre la conversation

1 commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *