Informations

Des tailles de pas inégales dans la procédure en escalier affectent-elles la convergence ?

Des tailles de pas inégales dans la procédure en escalier affectent-elles la convergence ?

Considérez une procédure psychophysique utilisant une méthode d'escalier standard pour trouver le seuil de manière adaptative, en utilisant un paradigme 2AFC et une méthode 1-up, 3-down pour déterminer le seuil de 75 %. Supposons maintenant l'utilisation d'étapes de taille inégale. Je suis ne pas se référant à la diminution de la taille des pas après un certain nombre d'inversions comme décrit par Levitt (1971), mais à l'utilisation de tailles de pas inégales. Ainsi, par exemple, supposons que les étapes disponibles sont de 0,5 - 0,5 - 0,5 - 1 - 1,5 - 0,5 - 2,5 - 2. Cela se traduirait donc par un ensemble discret de niveaux de stimulus disponibles de : 0 - 0,5 - 1 - 1,5 - 2,5 - 4 - 4.5 - 7 - 9. Étant donné que la taille des pas peut être utilisée pour modifier la vitesse à laquelle la procédure d'escalier converge (par exemple, 50 %, 75 %, etc.) Kaernbach (1991), je me demandais quelle était ma proposition de distribution au niveau du stimulus. signifierait pour la définition du seuil une procédure 1-up 3-down destinée à converger vers un seuil de 75 % ?


Cela signifiera de mauvaises choses. Si vous ne pouvez créer des stimuli qu'avec un ensemble prédéfini de "niveaux" non uniformément échantillonnés, le pourcentage de correction correspondant que l'escalier suivra dépendra du seuil d'un observateur individuel. Par exemple, si vous pouvez créer des stimuli avec des niveaux de 0, 1, 2, 3,… , 100, 110, 130, 170, 250, 410, où pour les petits niveaux les tailles de pas vers le haut et vers le bas sont égales, mais pour les grands niveaux la taille de l'étape vers le haut est deux fois la taille de l'étape vers le bas. Cela signifie que le pourcentage de point correct sera différent selon le seuil du sujet. Vous n'auriez pas à vous en soucier si vous utilisez quelque chose comme la méthode des stimuli constants.


Possibilités d'accès

Acheter un seul article

Accès instantané à l'intégralité de l'article PDF.

Le calcul des taxes sera finalisé lors du paiement.

Abonnez-vous à la revue

Accès en ligne immédiat à tous les numéros à partir de 2019. L'abonnement se renouvellera automatiquement chaque année.

Le calcul des taxes sera finalisé lors du paiement.


Contenu

CLT classique Modifier

Lyapunov CLT Modifier

En pratique, il est généralement plus facile de vérifier la condition de Lyapunov pour δ = 1 < extstyle delta =1>.

Si une séquence de variables aléatoires satisfait la condition de Lyapunov, alors elle satisfait également la condition de Lindeberg. L'implication inverse, cependant, ne tient pas.

Lindeberg CLT Modifier

Dans le même cadre et avec la même notation que ci-dessus, la condition de Lyapunov peut être remplacée par la condition suivante plus faible (de Lindeberg en 1920).

Supposons que pour tout > 0

converge vers la distribution normale standard N ( 0 , 1 ) < extstyle >(0,1)> .

CLT multidimensionnel Modifier

Le théorème central limite multivarié énonce que

Le taux de convergence est donné par le résultat de type Berry-Esseen suivant :

On ne sait pas si le facteur d 1 / 4 < extstyle d^<1/4>> est nécessaire. [9]

Théorème généralisé Modifier

Le théorème central limite stipule que la somme d'un certain nombre de variables aléatoires indépendantes et distribuées de manière identique avec des variances finies tendra vers une distribution normale à mesure que le nombre de variables augmente. Une généralisation due à Gnedenko et Kolmogorov indique que la somme d'un certain nombre de variables aléatoires avec des distributions de queue en loi de puissance (queue parétienne) décroissant comme | x | − α − 1 < extstyle <|x|>^<-alpha -1>> où 0 < α < 2 < extstyle 0<alpha <2>(et donc ayant une variance infinie) tendra vers une distribution stable f ( x α , 0 , c , 0 ) < extstyle f(xalpha ,0,c,0)>à mesure que le nombre de sommations augmente. [10] [11] Si α > 2 < extstyle alpha >2>alors la somme converge vers une distribution stable avec un paramètre de stabilité égal à 2, c'est-à-dire une distribution gaussienne. [12]

CLT sous dépendance faible Modifier

Une généralisation utile d'une séquence de variables aléatoires indépendantes et distribuées de manière identique est un processus aléatoire de mélange en temps discret. Plusieurs types de mélanges sont utilisés en théorie ergodique et en théorie des probabilités. Voir le mixage particulièrement fort (appelé aussi α-mixing) défini par α ( n ) → 0 < extstyle alpha (n) o 0>où α ( n ) < extstyle alpha (n)>est dit fort coefficient de mélange.

Une formulation simplifiée du théorème central limite sous fort mélange est : [13]

où la série converge absolument.

Différence de martingale CLT Modifier

Preuve de CLT classique Modifier

Le théorème central limite a une preuve utilisant des fonctions caractéristiques. [17] C'est similaire à la preuve de la loi (faible) des grands nombres.

Convergence à la limite Modifier

Le théorème central limite ne donne qu'une distribution asymptotique. En tant qu'approximation pour un nombre fini d'observations, elle ne fournit une approximation raisonnable que lorsqu'elle est proche du pic de la distribution normale, elle nécessite un très grand nombre d'observations pour s'étendre dans les queues. [ citation requise ]

La convergence dans le théorème central limite est uniforme car la fonction de distribution cumulative limite est continue. Si le troisième moment central E ⁡ [ ( X 1 − μ ) 3 ] < extstyle operatorname left[(X_<1>-mu )^<3> ight]> existe et est finie, alors la vitesse de convergence est au moins de l'ordre de 1 / n < extstyle 1/>> (voir théorème de Berry-Esseen). La méthode de Stein [18] peut être utilisée non seulement pour prouver le théorème central limite, mais aussi pour fournir des bornes sur les taux de convergence pour des métriques sélectionnées. [19]

La convergence vers la distribution normale est monotone, dans le sens où l'entropie de Z n < extstyle Z_> augmente de façon monotone à celle de la distribution normale. [20]

Le théorème central limite s'applique en particulier aux sommes de variables aléatoires discrètes indépendantes et identiquement distribuées. Une somme de variables aléatoires discrètes est toujours une variable aléatoire discrète, de sorte que nous sommes confrontés à une séquence de variables aléatoires discrètes dont la fonction de distribution de probabilité cumulative converge vers une fonction de distribution de probabilité cumulative correspondant à une variable continue (à savoir celle de la distribution normale) . Cela signifie que si l'on construit un histogramme des réalisations de la somme de n variables discrètes identiques indépendantes, la courbe qui joint les centres des faces supérieures des rectangles formant l'histogramme converge vers une courbe de Gauss lorsque n tend vers l'infini, cette relation est connu sous le nom de théorème de Moivre-Laplace. L'article sur la distribution binomiale détaille une telle application du théorème central limite dans le cas simple d'une variable discrète ne prenant que deux valeurs possibles.

Relation avec la loi des grands nombres Modifier

La loi des grands nombres ainsi que le théorème central limite sont des solutions partielles à un problème général : "Quel est le comportement limite de S m alors que n approche l'infini ?" En analyse mathématique, les séries asymptotiques sont l'un des outils les plus populaires utilisés pour aborder de telles questions.

Supposons que nous ayons un développement asymptotique de f ( n ) < extstyle f(n)> :

Diviser les deux parties par ??1(m) et prendre la limite produira une1 , le coefficient du terme d'ordre le plus élevé dans l'expansion, qui représente le taux auquel F(m) change dans son terme principal.

De manière informelle, on peut dire : " F(m) croît approximativement comme une1??1(m) ". Faire la différence entre F(m) et son approximation, puis en divisant par le terme suivant dans le développement, nous arrivons à une affirmation plus raffinée sur F(m) :

Ici, on peut dire que la différence entre la fonction et son approximation augmente approximativement comme une2??2(m) . L'idée est que diviser la fonction par des fonctions de normalisation appropriées et examiner le comportement limite du résultat peut nous en dire beaucoup sur le comportement limite de la fonction d'origine elle-même.

De manière informelle, quelque chose de ce genre se produit lorsque la somme, Sm , de variables aléatoires indépendantes identiquement distribuées, X1, …, Xm , est étudié en théorie des probabilités classique. [ citation requise ] Si chaque Xje a moyenne finie , alors par la loi des grands nombres, Sm / m?? . [21] Si en plus chaque Xje a une variance finie ?? 2 , puis par le théorème central limite,

où est distribué comme N(0,?? 2 ) . Cela fournit les valeurs des deux premières constantes dans l'expansion informelle

Dans le cas où le Xje n'ont pas de moyenne ou de variance finies, la convergence de la somme décalée et remise à l'échelle peut également se produire avec différents facteurs de centrage et d'échelle :

La loi du logarithme itéré précise ce qui se passe « entre » la loi des grands nombres et le théorème central limite. Plus précisément, il dit que la fonction de normalisation √ m journal journal m , de taille intermédiaire entre n de la loi des grands nombres et √ m du théorème central limite, fournit un comportement limite non trivial.

Énoncés alternatifs du théorème Modifier

Fonctions de densité Modifier

La densité de la somme de deux ou plusieurs variables indépendantes est la convolution de leurs densités (si ces densités existent). Ainsi, le théorème central limite peut être interprété comme une déclaration sur les propriétés des fonctions de densité sous convolution : la convolution d'un certain nombre de fonctions de densité tend vers la densité normale lorsque le nombre de fonctions de densité augmente sans limite. Ces théorèmes nécessitent des hypothèses plus fortes que les formes du théorème central limite donné ci-dessus. Les théorèmes de ce type sont souvent appelés théorèmes limites locaux. Voir Petrov [24] pour un théorème local limite particulier pour les sommes de variables aléatoires indépendantes et identiquement distribuées.

Fonctions caractéristiques Modifier

Puisque la fonction caractéristique d'une convolution est le produit des fonctions caractéristiques des densités impliquées, le théorème central limite a encore une autre reformulation : le produit des fonctions caractéristiques d'un certain nombre de fonctions de densité devient proche de la fonction caractéristique de la densité normale au fur et à mesure que le nombre de fonctions de densité augmente sans borne, dans les conditions énoncées ci-dessus. Plus précisément, un facteur d'échelle approprié doit être appliqué à l'argument de la fonction caractéristique.

Une déclaration équivalente peut être faite à propos des transformées de Fourier, puisque la fonction caractéristique est essentiellement une transformée de Fourier.

Calcul de la variance Modifier

Soit Sm être la somme de n variables aléatoires. De nombreux théorèmes centraux limites fournissent des conditions telles que Sm / Var( Sm ) converge en distribution vers N(0,1) (la distribution normale de moyenne 0, variance 1) comme n → ∞ . Dans certains cas, il est possible de trouver une constante ?? 2 et fonction f(n) telle que Sm /(σ √ n⋅f ( n ) ) converge en distribution vers N(0,1) comme n → ∞ .

Produits de variables aléatoires positives Modifier

Le logarithme d'un produit est simplement la somme des logarithmes des facteurs. Par conséquent, lorsque le logarithme d'un produit de variables aléatoires qui ne prennent que des valeurs positives s'approche d'une distribution normale, le produit lui-même s'approche d'une distribution log-normale. De nombreuses quantités physiques (en particulier la masse ou la longueur, qui sont une question d'échelle et ne peuvent pas être négatives) sont le produit de différents facteurs aléatoires, elles suivent donc une distribution log-normale. Cette version multiplicative du théorème central limite est parfois appelée loi de Gibrat.

Alors que le théorème central limite pour les sommes de variables aléatoires requiert la condition de variance finie, le théorème correspondant pour les produits requiert la condition correspondante que la fonction de densité soit carrée intégrable. [26]

La normalité asymptotique, c'est-à-dire la convergence vers la distribution normale après un décalage et une remise à l'échelle appropriés, est un phénomène beaucoup plus général que le cadre classique traité ci-dessus, à savoir les sommes de variables aléatoires indépendantes (ou vecteurs). De nouveaux cadres sont révélés de temps en temps, aucun cadre unificateur unique n'est disponible pour le moment.

Corps convexe Modifier

Théorème. Il existe une séquence ??m ↓ 0 pour lequel ce qui suit est vérifié. Laisser m 1 , et laisser les variables aléatoires X1, …, Xm ont une densité de joint log-concave f telle que F(X1, …, Xm) = F(| X1 |, …, | Xm |) pour tous X1, …, Xm , et E(X 2
k ) = 1 pour tout k = 1, …, m . Ensuite, la distribution de

X 1 + ⋯ + X n n +cdots +X_>>>>

estm -proche de N(0,1) dans la distance de variation totale. [27]

Ces deuxm -les distributions proches ont des densités (en fait, des densités log-concaves), ainsi, la distance de variance totale entre elles est l'intégrale de la valeur absolue de la différence entre les densités. La convergence de la variation totale est plus forte que la convergence faible.

Un exemple important d'une densité log-concave est une constante de fonction à l'intérieur d'un corps convexe donné et sa disparition à l'extérieur correspond à la distribution uniforme sur le corps convexe, ce qui explique le terme « théorème central limite pour les corps convexes ».

Un autre exemple: F(X1, …, Xm) = const · exp(−(| X1 | ?? + ⋯ + | Xm | ?? ) ?? ) où ?? > 1 et ?? > 1 . Si ?? = 1 alors F(X1, …, Xm) se factorise en const · exp (−| X1 | ?? ) … exp(−| Xm | ?? ), ce qui signifie X1, …, Xm sont indépendants. En général, cependant, ils sont dépendants.

La condition F(X1, …, Xm) = F(| X1 |, …, | Xm |) garantit que X1, …, Xm sont de moyenne nulle et non corrélées [ citation requise ] encore, ils n'ont pas besoin d'être indépendants, ni même indépendants par paires. [ citation requise ] Soit dit en passant, l'indépendance par paires ne peut pas remplacer l'indépendance dans le théorème central limite classique. [28]

Série trigonométrique lacunaire Modifier

  • mk satisfaire la condition de lacunarité : il existe q > 1 tel que mk + 1qnk pour tout k ,
  • rk sont tels que r 1 2 + r 2 2 + ⋯ = ∞ et rk 2 r 1 2 + ⋯ + rk 2 → 0 , ^<2>+r_<2>^<2>+ cdots =infty quad < ext< et >>quad ^<2>>^<2>+cdots +r_^<2>>>à 0,>
  • 0 ≤ unek < 2π .

Polytopes gaussiens Modifier

Théorème: Laisser UNE1, …, UNEm être des points aléatoires indépendants sur le plan ?? 2 ayant chacun la distribution normale standard à deux dimensions. Soit Km être l'enveloppe convexe de ces points, et Xm l'aire de Km Puis [33]

X n − E ( X n ) Var ⁡ ( X n ) -mathbb (X_)> (X_)>>>>

converge en distribution vers N(0,1) car n tend vers l'infini.

Il en est de même dans toutes les dimensions supérieures à 2.

Le polytope Km est appelé polytope aléatoire gaussien.

Un résultat similaire est valable pour le nombre de sommets (du polytope gaussien), le nombre d'arêtes et, en fait, les faces de toutes dimensions. [34]

Fonctions linéaires de matrices orthogonales Modifier

Une fonction linéaire d'une matrice M est une combinaison linéaire de ses éléments (à coefficients donnés), M tr(UN M) où UNE est la matrice des coefficients voir Trace (algèbre linéaire)#Produit interne.

Une matrice orthogonale aléatoire est dite distribuée uniformément, si sa distribution est la mesure de Haar normalisée sur le groupe orthogonal O(m,??) voir Matrice de rotation#Matrices de rotation aléatoire uniformes.

Sous-séquences Modifier

Marche aléatoire sur un réseau cristallin Modifier

Le théorème central limite peut être établi pour la marche aléatoire simple sur un réseau cristallin (un graphe couvrant abélien infini sur un graphe fini), et est utilisé pour la conception de structures cristallines. [37] [38]

Exemple simple Modifier

50) et l'écart-type moyen de l'échantillon divisé par la racine carrée de la taille de l'échantillon (

28.87/ √ m ), que l'on appelle l'écart type de la moyenne (puisqu'il fait référence à l'étalement des moyennes de l'échantillon).

Un exemple simple du théorème central limite est de lancer de nombreux dés identiques et non biaisés. La distribution de la somme (ou moyenne) des nombres obtenus sera bien approchée par une distribution normale. Étant donné que les quantités du monde réel sont souvent la somme équilibrée de nombreux événements aléatoires non observés, le théorème central limite fournit également une explication partielle de la prévalence de la distribution de probabilité normale. Cela justifie également l'approximation des statistiques sur grand échantillon à la distribution normale dans les expériences contrôlées.

Applications réelles Modifier

La littérature publiée contient un certain nombre d'exemples et d'applications utiles et intéressants relatifs au théorème central limite. [39] Une source [40] cite les exemples suivants :

  • La distribution de probabilité pour la distance totale parcourue lors d'une marche aléatoire (biaisée ou non) tendra vers une distribution normale.
  • Retourner de nombreuses pièces entraînera une distribution normale pour le nombre total de faces (ou de manière équivalente le nombre total de queues).

D'un autre point de vue, le théorème central limite explique l'apparence commune de la « courbe en cloche » dans les estimations de densité appliquées aux données du monde réel. Dans des cas comme le bruit électronique, les notes d'examen, etc., nous pouvons souvent considérer une seule valeur mesurée comme la moyenne pondérée de nombreux petits effets. En utilisant des généralisations du théorème central limite, nous pouvons alors voir que cela produirait souvent (mais pas toujours) une distribution finale approximativement normale.

En général, plus une mesure ressemble à la somme de variables indépendantes ayant une influence égale sur le résultat, plus elle présente de normalité. Cela justifie l'utilisation courante de cette distribution pour remplacer les effets de variables non observées dans des modèles comme le modèle linéaire.

L'analyse de régression et en particulier les moindres carrés ordinaires spécifie qu'une variable dépendante dépend selon une certaine fonction d'une ou plusieurs variables indépendantes, avec un terme d'erreur additif. Divers types d'inférence statistique sur la régression supposent que le terme d'erreur est normalement distribué. Cette hypothèse peut être justifiée en supposant que le terme d'erreur est en fait la somme de nombreux termes d'erreur indépendants même si les termes d'erreur individuels ne sont pas normalement distribués, par le théorème central limite, leur somme peut être bien approchée par une distribution normale.

Autres illustrations Modifier

Compte tenu de son importance pour les statistiques, un certain nombre d'articles et de logiciels sont disponibles qui démontrent la convergence impliquée dans le théorème central limite. [41]

Le mathématicien néerlandais Henk Tijms écrit : [42]

Le théorème central limite a une histoire intéressante. La première version de ce théorème a été postulée par le mathématicien d'origine française Abraham de Moivre qui, dans un article remarquable publié en 1733, a utilisé la distribution normale pour approximer la distribution du nombre de têtes résultant de plusieurs lancers d'une pièce de monnaie équitable. Cette découverte était bien en avance sur son temps et fut presque oubliée jusqu'à ce que le célèbre mathématicien français Pierre-Simon Laplace la sauve de l'obscurité dans son œuvre monumentale. Théorie analytique des probabilités, qui a été publié en 1812. Laplace a élargi la conclusion de De Moivre en rapprochant la distribution binomiale avec la distribution normale. Mais comme pour De Moivre, la découverte de Laplace a reçu peu d'attention à son époque. Ce n'est qu'à la fin du XIXe siècle que l'importance du théorème central limite a été discernée, quand, en 1901, le mathématicien russe Aleksandr Lyapunov l'a défini en termes généraux et a prouvé avec précision comment il fonctionnait mathématiquement. De nos jours, le théorème central limite est considéré comme le souverain officieux de la théorie des probabilités.

Sir Francis Galton a décrit le théorème central limite de cette manière : [43]

Je ne connais presque rien d'aussi apte à impressionner l'imagination que la merveilleuse forme d'ordre cosmique exprimée par la "Loi de Fréquence d'Erreur". La loi aurait été personnifiée par les Grecs et divinisée, s'ils l'avaient connue. Il règne en toute sérénité et dans l'effacement le plus total, au milieu de la confusion la plus folle. Plus la foule est nombreuse et plus l'anarchie apparente est grande, plus son influence est parfaite. C'est la loi suprême de la Déraison. Chaque fois qu'un large échantillon d'éléments chaotiques est pris en main et classé dans l'ordre de leur grandeur, une forme de régularité insoupçonnée et la plus belle s'avère avoir toujours été latente.

Le terme actuel « théorème central limite » (en allemand : « zentraler Grenzwertsatz ») a été utilisé pour la première fois par George Pólya en 1920 dans le titre d'un article. [44] [45] Pólya a qualifié le théorème de " central " en raison de son importance dans la théorie des probabilités. Selon Le Cam, l'école française des probabilités interprète le mot central au sens où « il décrit le comportement du centre de la distribution par opposition à ses queues ». [45] Le résumé de l'article Sur le théorème central limite du calcul des probabilités et le problème des moments par Pólya [44] en 1920 se traduit comme suit.

L'occurrence de la densité de probabilité gaussienne 1 = eX 2 dans les expériences répétées, dans les erreurs de mesures, qui se traduisent par la combinaison d'erreurs élémentaires très nombreuses et très petites, dans les processus de diffusion, etc., peut s'expliquer, comme on le sait, par le même théorème limite, qui joue un rôle central dans le calcul des probabilités. Le véritable découvreur de ce théorème limite doit s'appeler Laplace, il est probable que sa preuve rigoureuse a d'abord été donnée par Tschebyscheff et sa formulation la plus précise peut être trouvée, pour autant que je sache, dans un article de Liapounoff. .

Un compte rendu détaillé de l'histoire du théorème, détaillant les travaux fondamentaux de Laplace, ainsi que les contributions de Cauchy, Bessel et Poisson, est fourni par Hald. [46] Deux récits historiques, l'un couvrant le développement de Laplace à Cauchy, le second les contributions de von Mises, Pólya, Lindeberg, Lévy et Cramér au cours des années 1920, sont donnés par Hans Fischer. [47] Le Cam décrit une période autour de 1935. [45] Bernstein [48] présente une discussion historique portant sur les travaux de Pafnuty Chebyshev et de ses étudiants Andrey Markov et Aleksandr Lyapunov qui ont conduit aux premières preuves du CLT dans un cadre général .

Une curieuse note de bas de page sur l'histoire du théorème central limite est qu'une preuve d'un résultat similaire au CLT Lindeberg de 1922 a fait l'objet de la thèse de bourse d'Alan Turing en 1934 pour le King's College de l'Université de Cambridge. Ce n'est qu'après avoir soumis le travail que Turing a appris qu'il avait déjà été prouvé. Par conséquent, la thèse de Turing n'a pas été publiée. [49]


Contenu

  1. Les observations testées sont indépendantes au sein et entre les groupes.
  2. Les groupes associés à chaque moyenne dans le test sont normalement distribués.
  3. Il existe une variance intra-groupe égale entre les groupes associés à chaque moyenne du test (homogénéité de la variance).

Le test de Tukey est basé sur une formule très similaire à celle du test t. En fait, le test de Tukey est essentiellement un test t, sauf qu'il corrige le taux d'erreur au niveau de la famille.

La formule du test de Tukey est :

où Y UNE est la plus grande des deux moyennes comparées, Y B est la plus petite des deux moyennes comparées, et SE est l'erreur type de la somme des moyennes.

Ce qs La valeur peut alors être comparée à une valeur q de la distribution de plage studentisée. Si le qs La valeur est plus grand que la valeur critique q?? obtenu à partir de la distribution, les deux moyennes sont dites significativement différentes au niveau α : 0 ≤ α ≤ 1 . [3]

Étant donné que l'hypothèse nulle du test de Tukey stipule que toutes les moyennes comparées proviennent de la même population (c'est-à-dire μ 1 = 2 = 3 = . =k ), les moyennes doivent être normalement distribuées (selon le théorème central limite). Cela donne lieu à l'hypothèse de normalité du test de Tukey.

La méthode Tukey utilise la distribution de plage studentisée. Supposons que l'on prenne un échantillon de taille m de chacun de k populations avec la même distribution normale N(??, ?? 2 ) et supposons que y ¯ >> min est la plus petite de ces moyennes d'échantillon et y ¯ >> max est la plus grande de ces moyennes d'échantillon, et supposons S 2 est la variance de l'échantillon regroupé à partir de ces échantillons. Ensuite, la variable aléatoire suivante a une distribution de plage de Student.

Cette valeur de q est la base de la valeur critique de q, sur la base de trois facteurs :

  1. α (le taux d'erreur de type I, ou la probabilité de rejeter une véritable hypothèse nulle)
  2. k (le nombre d'habitants)
  3. df (le nombre de degrés de liberté (Nk) où N est le nombre total d'observations)

La distribution de q a été tabulé et apparaît dans de nombreux manuels de statistiques. Dans certains tableaux, la distribution de q a été totalisé sans le facteur 2 >>. Pour comprendre de quelle table il s'agit, nous pouvons calculer le résultat pour k = 2 et comparez-le au résultat de la loi t de Student avec les mêmes degrés de liberté et le même ??. De plus, R offre une fonction de distribution cumulative ( ptukey ) et une fonction quantile ( qtukey ) pour q.

Les limites de confiance de Tukey pour toutes les comparaisons par paires avec un coefficient de confiance d'au moins 1 − sont

Notez que l'estimateur ponctuel et la variance estimée sont les mêmes que ceux d'une seule comparaison par paire. La seule différence entre les limites de confiance pour les comparaisons simultanées et celles pour une seule comparaison est le multiple de l'écart type estimé.

m je et m j sont les tailles des groupes je et j respectivement. Les degrés de liberté pour l'ensemble de la conception sont également appliqués.


Homogénéité des hypothèses de variance

L'hypothèse d'homogénéité des variances est rarement vraie dans la vie réelle et ne peut pas être considérée comme acquise lors de la réalisation d'un test statistique ( Erceg-Hurn & Mirosevich, 2008 Zumbo & Coulombe, 1997 ). De nombreux auteurs ont examiné des données réelles et ont noté que le SDR est souvent différent du rapport 1:1 (voir, par exemple, Grissom, 2000 Erceg-Hurn & Mirosevich, 2008 ). Cela montre que la présence de variances inégales est une hypothèse réaliste dans la recherche psychologique. 7 Nous discuterons de trois origines différentes d'écarts types inégaux dans deux groupes d'observations.

Une première raison des écarts inégaux entre les groupes est que les psychologues utilisent souvent grandeurs mesurées (comme l'âge, le sexe, le niveau d'éducation, l'origine ethnique, le niveau de dépression, etc.) au lieu de l'assignation aléatoire à la condition. Dans leur examen de la comparaison des résultats psychologiques de tous les domaines des sciences du comportement à travers les cultures, Henrich, Heine et Norenzayan ( 2010 ) suggèrent que les paramètres varient largement d'une population à l'autre. Autrement dit, la variance n'est pas systématiquement la même dans tous les groupes préexistants. Par exemple, Feingold ( 1992 ) a montré que les capacités intellectuelles des hommes étaient plus variables que les capacités intellectuelles des femmes en examinant plusieurs batteries de tests standardisés mesurant les connaissances générales, le raisonnement mécanique, la visualisation spatiale, les capacités quantitatives et l'orthographe. En effet, l'hypothèse de variabilité (que les hommes présentent une plus grande variabilité que les femmes) date de plus d'un siècle (pour une revue, voir Boucliers, 1975 ). Dans de nombreux domaines de recherche, tels que les performances en mathématiques, il existe des indicateurs solides indiquant que les ratios de variance diffèrent entre 1,1 et 1,2, bien que les ratios de variance ne diffèrent pas dans tous les pays et que les causes de ces différences ne soient pas encore claires. Néanmoins, c'est un fait empirique que les ratios de variances peuvent différer entre les groupes préexistants.

De plus, certains groupes préexistants présentent par définition une variabilité différente. Un exemple tiré du domaine de l'éducation est la comparaison des systèmes scolaires sélectifs (où les élèves sont acceptés sur la base de critères de sélection) et des systèmes scolaires complets (où tous les élèves sont acceptés, quelles que soient leurs aptitudes, p. Hanushek & Wößmann, 2006 ). Au moment où une école accepte ses élèves, la variabilité en termes d'aptitude sera plus grande dans une école polyvalente que dans une école sélective, par définition.

Enfin, un traitement quasi expérimental peut avoir un impact différent sur les variances entre les groupes. Hanushek et Wößmann ( 2006 ) suggèrent qu'il y a un impact du système éducatif sur la variabilité des résultats. Même si la variabilité, en termes d'aptitudes, est plus grande dans une école polyvalente que dans une école sélective au départ, un système scolaire sélectif au primaire accroît l'inégalité (puis la variabilité) des résultats au secondaire. Un autre exemple est la variabilité des humeurs. Cowdry, Gardner, O'Leary, Leibenluft, & Rubinow ( 1991 ) a noté que la variabilité intra-individuelle est plus importante chez les patientes souffrant de syndrome prémenstruel (SPM) que chez les patientes normales et plus importante chez les patientes normales que chez les patientes dépressives. Les chercheurs qui étudient l'impact d'un traitement expérimental sur les changements d'humeur peuvent s'attendre à une plus grande variabilité des changements d'humeur chez les patients atteints de SPM que chez les patients normaux ou dépressifs et donc un écart type plus élevé dans les mesures de l'humeur.

Une deuxième raison des écarts inégaux entre les groupes est que, bien que les écarts de deux groupes soient les mêmes lorsque l'affectation des groupes est complètement aléatoire, un écart par rapport à l'égalité des écarts peut se produire plus tard, en conséquence d'un traitement expérimental ( Cumming, 2013 Erceg-Hurn & Mirosevich, 2008 Keppel, 1991 ). Par exemple, la psychothérapie pour la dépression peut augmenter la variabilité des symptômes dépressifs, par rapport à un groupe témoin, car l'efficacité de la thérapie dépendra des différences individuelles ( Bryk & Raudenbush, 1988 Erceg-Hurn & Mirosevich, 2008 ). De même, Kester ( 1969 ) a comparé les QI des élèves d'un groupe témoin avec les QI des élèves lorsque des attentes élevées vis-à-vis des élèves étaient induites chez l'enseignant. Bien qu'aucun effet de l'espérance de l'enseignant sur le QI n'ait été trouvé, la variance était plus importante dans le groupe de traitement que dans le groupe témoin (56,52 vs 32,59, c'est-à-dire SDR ≈ 1,32). Comme proposé par Bryk et Raudenbush ( 1988 ), cela peut résulter de l'interaction entre le traitement et les réactions des élèves : les élèves peuvent réagir différemment aux attentes induites. Plus généralement, chaque fois qu'une manipulation a des modérateurs individuels, la variabilité devrait augmenter par rapport à une condition de contrôle.

Savoir si les écarts types diffèrent selon les conditions est une information importante, mais dans de nombreux domaines, nous n'avons pas d'estimations précises de l'écart type dans la population. Alors que nous collectons les tailles d'effet de population dans les méta-analyses, ces méta-analyses n'incluent souvent pas les écarts types de la littérature. En conséquence, nous n'avons malheureusement pas un accès facile aux informations agrégées sur les écarts types entre les domaines de recherche, malgré l'importance de ces informations. Il serait utile que les méta-analystes commencent à coder les informations sur les écarts types lors de la réalisation des méta-analyses ( Lakens, Hilgard, & Staaks, 2016 ), de sorte que nous puissions quantifier avec précision si les écarts types diffèrent entre les groupes et la taille du SDR.


Des changements illusoires dans la direction visuelle accompagnent l'adaptation des mouvements oculaires saccadés

Un problème central de la vision humaine est d'expliquer comment le monde visuel reste stable malgré les déplacements continus de l'image rétinienne produits par les mouvements saccadés rapides des yeux. La stabilité perçue a été attribuée aux signaux « de copie efférente », représentant les commandes motrices saccadiques, qui annulent les effets des déplacements rétiniens liés aux saccades 1,2,3,4,5,6. Nous montrons ici, au moyen d'une illusion perceptive, que les théories traditionnelles de l'annulation ne peuvent expliquer la stabilité. L'illusion perceptive a été produite en induisant d'abord des changements adaptatifs du gain saccadique (rapport de la taille de la saccade à l'excentricité cible). Après l'adaptation, les sujets ont connu une mauvaise localisation illusoire dans laquelle des cibles largement séparées ont flashé avant et après les saccades semblaient être au même endroit. L'illusion montre que le système perceptif n'a pas pris en compte les changements adaptatifs. La localisation perceptive est basée sur des signaux représentant la taille de la saccade initialement prévue, et non la taille de la saccade qui est finalement exécutée. Les signaux représentant les saccades prévues initient un processus de comparaison visuelle utilisé pour maintenir la stabilité de la perception à travers les saccades et pour générer les signaux d'erreur oculomoteur qui assurent la précision des saccades.


Conclusion

La recherche sur la FFM de la personnalité et de l'affect chez les patients cancéreux plus âgés, en particulier les patients minoritaires plus âgés, est limitée. This exploratory study is unique in that it includes a sample of older Black, although small, cancer patients, a population that has historically been excluded from personality research. Given the increase of the older adult population, older minority population, and cancer incidence within these populations, this research is timely. Findings from this study warrant further exploration of the influence personality has on the lived experiences of older cancer patients from diverse racial groups, and to address a gap in the literature that has focused primarily on younger White individuals with cancer. Future studies should include Hispanic and Asian participants in addition to including a more representative sample of Black participants. Studying older racially diverse patients will provide important (data) information on those whom are most at risk for a cancer diagnosis.

Implications cliniques

Findings from this study have several implications for clinical practice. First, they highlight the importance of addressing individual factors, such as personality and affect that may impede optimal symptom management, while improving overall quality of life. Recognizing the influence personality characteristics have in health outcomes allows clinicians and researchers to identify patient behaviors that may lead to informed preventive strategies, intervention methods, and policy initiatives.


Finite difference method

In numerical analysis, finite-difference methods (FDM) are a class of numerical techniques for solving differential equations by approximating derivatives with finite differences. Both the spatial domain and time interval (if applicable) are discretized, or broken into a finite number of steps, and the value of the solution at these discrete points is approximated by solving algebraic equations containing finite differences and values from nearby points.

Finite difference methods convert ordinary differential equations (ODE) or partial differential equations (PDE), which may be nonlinear, into a system of linear equations that can be solved by matrix algebra techniques. Modern computers can perform these linear algebra computations efficiently which, along with their relative ease of implementation, has led to the widespread use of FDM in modern numerical analysis. [1] Today, FDM are one of the most common approaches to the numerical solution of PDE, along with finite element methods. [1]


What is allocation concealment?

Allocation concealment is the technique of ensuring that implementation of the random allocation sequence occurs without knowledge of which patient will receive which treatment, as knowledge of the next assignment could influence whether a patient is included or excluded based on perceived prognosis.

For example, suppose that a spine surgeon has been working on a new kind of bone substitute that from a series of patients has shown great promise. The surgeon believes using this new substitute is better than the current method and wants to demonstrate this advantage in a randomized controlled trial. Let’s also assume the random sequence has been generated, the new bone substitute is the next treatment to be given, and the surgeon knows that this treatment is next on the list. The next patient seen by the surgeon has comorbidities that make the surgeon believe that this patient is risky of achieving success with any treatment even though the patient meets the inclusion/exclusion criteria for the study. In this scenario one might easily subconsciously justify not enrolling the patient. Perhaps the patient hesitates briefly when the study is mentioned and the surgeon suggests that the patient sleep on the idea of participating. Maybe the surgeon decides to get more tests before offering enrollment. The number of different subtle possibilities to exclude this patient is only limited by one’s imagination.


Previous simulation studies

Not many simulation studies measuring Type I error rates exist for completely within-subjects designs with nonnormal data and/or very small sample sizes. It has been suggested, however, that simulation results for designs with a combination of within- and between-subjects factors, identical group sizes (i.e., balanced designs), and equal covariance matrices across groups should be similar to what can be expected for a completely within-subjects design (e.g., Keselman et al., 2001, p. 11 Keselman, Kowalchuk, & Boik, 2000, p. 55). For “split-plot” designs containing both between- and within-subjects factors, many simulation studies are available (for reviews, see Keselman et al., 2001, 2002), due to the importance of this type of design for educational and clinical psychology and for the social sciences. Still, even if studies containing between-subjects factors are considered, it has to be stated that Type I error rates have not yet been obtained very systematically for extremely small sample sizes and nonnormal data. We will first discuss studies simulating small samples and nonnormal data, and then consider studies in which small sample sizes were simulated but the data were normally distributed.

Pour N = 6 or 9 and a design with equal group sizes and equal covariance matrices across groups, Keselman et al. (2000) reported frequent liberal error rates if the data were ?? 2 (3) distributed. The multivariate approach showed a stronger tendency toward liberal error rates than did a univariate approach with df correction. For normally distributed data, both approaches controlled the Type I error rate (Huynh & Feldt, 1976 Lecoutre, 1991).

Berkovits, Hancock, and Nevitt (2000) simulated a design with a single within-subjects factor (K = 4), no between-subjects factors, and varied the sample size between 10 and 60. For normal data and N = 10, HF, GG, and T 2 controlled the Type I error rate. With increasing skewness and kurtosis of the simulated response variable, the three procedures produced conservative Type I error rates for a spherical population covariance matrix and showed liberal behavior at small values of ??. For strong deviations from normality (skewness = 3.0, kurtosis = 21.0), the results were robust only at the highest sample size (N = 60).

Wilcox, Keselman, Muska, and Cribbie (2000) reported both conservative and liberal Type I error rates in a design with one within-subjects factor (K = 4, N = 21) if the distribution of the dependent variable was nonnormal. For strongly heavy-tailed distributions (g-and-h distribution with h = 0.5 cf. Headrick, Kowalchuk, & Sheng, 2010), the univariate approach with Huynh–Feldt df correction often produced conservative Type I error rates, especially if the variances under the four factor levels were equal. If the variances were unequal, the multivariate approach produced conservative results for symmetric and heavy-tailed distributions, but highly liberal results for asymmetric and heavy-tailed distributions. In the latter case, HF also occasionally produced liberal Type I error rates.

Muller, Edwards, Simpson, and Taylor (2007) simulated normal data from a design without between-subjects factors (K = 9), studied sample sizes between 10 and 40, and varied the sphericity parameter ?? of the population covariance matrix. At an ?? level of .04, GG and HF always met Bradley’s liberal criterion. PROC MIXED fitting a UN or CS type of covariance matrix and using the Kenward–Roger (1997) adjustment produced liberal Type I error rates if N = 10 and ?? < 1.0. At N = 20, PROC MIXED produced robust results if a UN rather than a CS type of covariance matrix was fitted.

Skene and Kenward (2010a) simulated a design with two groups, five subjects per group (i.e., N = 10), and a continuous within-subjects covariate with five levels (K = 5). The response variable was normally distributed. PROC MIXED fitting an unstructured covariance matrix and using the Kenward and Roger (1997) adjustment controlled the Type I error rate.

Gomez, Schaalje, and Fellingham (2005) simulated normal data, with one continuous within-subjects factor (three to five levels), one between-subjects factor with three levels, and total sample sizes between nine and 15. For a balanced design with identical covariance matrices across groups, PROC MIXED with the Kenward–Roger adjustment controlled the Type I error rate if the correct covariance structure was fitted, except for a single type of population covariance structure. If the covariance structure was selected via the Akaike (AIC Akaike, 1974) or Bayesian (BIC Schwarz, 1978) information criteria, several liberal error rates were reported.

Taken together, for samples sizes as low as N = 6, the univariate approaches with df correction and the multivariate approach seem to control Type I error rates for normal data, which is the expected result. With some exceptions, this is also true for PROC MIXED with the Kenward–Roger adjustment. However, this pattern seems to change, sometimes even dramatically, if the distribution of the response variable is nonnormal.

To summarize the previous results, for repeated measures designs, no empirical Type I error rates have been reported for N < 6, the influence of sample size has only been investigated in most studies by comparing two or three different sample sizes, and the effects of nonnormality have also not been tested for very small sample sizes combined with higher numbers of levels of the within-subjects factor. Thus, our study for the first time provides empirical Type I error rates for (1) samples sizes as small as three and varied in small steps, (2) normal and nonnormal data, (3) numbers of factor levels ranging from four to 16, and (4) a rather wide variety of population covariance matrices.


Voir la vidéo: Une subtilité à ne pas négliger dans linterversion limiteintégrale avec la convergence uniforme. (Janvier 2022).