Informations

Durée minimale pour présenter un stimulus visuel à l'écran

Durée minimale pour présenter un stimulus visuel à l'écran

Mon expérience consiste à présenter brièvement à l'écran des stimuli visuels simples (200 ms à 1000 ms). Les stimuli seraient assez simples (par exemple un cercle et une ligne) mais je souhaite utiliser une plage de durées pour tester certaines hypothèses. Je voudrais savoir s'il y a un temps minimal pour que les yeux humains perçoivent des stimuli visuels simples, donc je pourrais dire "les durées que j'ai choisies pour mon expérience sont sans danger au-dessus de la valeur minimale suggérée par "un tel" dans l'expérience de psychophysique .

Je suis sûr que de nombreux facteurs auraient un impact sur une telle valeur, tels que l'état du participant et à quelle distance se trouve la cible (dans mon cas, c'est la distance entre quelqu'un, assis à son bureau, et l'écran d'ordinateur), etc., mais peut-être y a-t-il des données et des règles déjà établies ? Si quelqu'un connaît des directives ou de la littérature applicables, je l'apprécierais vraiment.

(J'ai essayé de rechercher sous "durée minimale de présentation tachistoscopique" mais je n'ai encore rien découvert d'utile. Toute autre combinaison de termes de recherche serait également utile.)


En psychophysique, c'est ce qu'on appelle un seuil absolu. Le seuil absolu dépendra de divers facteurs tels que la luminosité, la taille, etc.

Il est également important de garder à l'esprit que le temps nécessaire pour détecter un stimulus peut être trop court pour provoquer un effet souhaité sur le participant (par exemple une manipulation). Par exemple, le temps nécessaire pour détecter un stimulus est nécessairement plus court que le temps nécessaire pour identifier un stimulus. Bien que les recherches sur les stimuli subliminaux suggèrent que des stimuli peuvent parfois être présentés au dessous de seuil et encore réaliser quelques manipulations. Cependant, certaines de ces recherches sont controversées.

Souvent, les chercheurs choisiront une plage de temps d'affichage spécifiquement afin de démêler le déroulement temporel d'un processus cognitif. Par exemple, lors de l'affichage d'un groupe de points, combien de temps faut-il pour les subitiser ?

Il n'y a pas suffisamment d'informations dans votre question pour vous donner un nombre exact, mais je suggère de consulter des études similaires et de voir quel type de temps d'affichage elles utilisent.


Cela dépend de l'intensité, mais il est plus court à la plupart des intensités que votre écran pourrait éventuellement présenter un stimulus. Ne vous en faites pas et ne citez pas de références. Ce serait comme citer une référence expliquant pourquoi vous n'avez pas à vous soucier des effets quantiques lorsque vous testez le meilleur type de tournevis.


Évaluer les réactions des utilisateurs : ouvert ou structuré

Une fois que les participants ont été exposés à la conception, l'étape suivante consiste à mesurer leurs réponses. Les impressions esthétiques des gens peuvent être très idiosyncratiques et devront être systématiquement analysées pour identifier les tendances significatives. Cela peut être fait avec des commentaires ouverts, mais l'utilisation d'une approche légèrement plus structurée facilite la compréhension des modèles globaux. Voici quelques techniques qui peuvent être utilisées, allant de complètement ouvertes à très structurées :

  • Explication des préférences ouvertes: Demander aux utilisateurs d'expliquer Pourquoi ils aiment un design
  • Choix de mot ouvert: Demandez aux utilisateurs de lister 3 à 5 mots qui décrivent le design
  • Choix de mots fermés (test de désirabilité): Fournir aux utilisateurs une liste de termes et leur demander de choisir les mots qui décrivent le mieux le design
  • Notes numériques: Recueillez des évaluations numériques sur la mesure dans laquelle le design présente des qualités de marque spécifiques

Explication des préférences ouvertes

La première méthode, simplement demander aux gens de Explique Pourquoi ils aiment (ou n'aiment pas) un design, peut bien fonctionner pour les sessions en personne avec des utilisateurs très motivés et articulés. Cette question jette le filet le plus large et peut être utile si vous ne connaissez pas grand-chose aux attentes de votre public et que vous souhaitez découvrir ce qui compte pour eux. Cela peut également aider à identifier les opinions basées sur des idiosyncrasies personnelles (telles que « J'aime le violet »), qui peuvent être éliminées afin que vous puissiez vous concentrer sur des facteurs plus importants. L'inconvénient de cette approche est que vous pouvez n'obtenir que des réponses brèves ou non pertinentes si le participant n'est pas motivé ou n'est tout simplement pas très articulé. Cette méthode est particulièrement risquée dans un environnement distant non modéré (comme un sondage), car vous ne pourrez pas demander plus de détails dans les questions de suivi si quelqu'un donne une réponse vague telle que « C'est bien ».

Ouvrir le choix des mots

Une approche légèrement plus structurée pour évaluer les perceptions des utilisateurs consiste à demander aux participants au test de liste plusieurs mots qui décrivent le design. Ce format garantit que vous obtenez au moins des commentaires spécifiques, tout en gardant la question ouverte pour découvrir des facteurs que vous n'avez peut-être pas pris en compte, mais qui sont importants pour votre public. Vous pouvez récupérer un large éventail de descripteurs et devrez les analyser attentivement pour identifier des thèmes significatifs. Une bonne approche pour cette analyse consiste à classer les termes en termes généralement positifs, négatifs ou neutres, puis à regrouper les termes ayant des significations similaires et à évaluer s'ils correspondent aux attributs de votre marque cible. Par exemple, le tableau ci-dessous présente les descripteurs fournis à propos d'un site Web interentreprises dont l'objectif de marque était d'être digne de confiance, contemporain et utile. Aucun de ces termes n'a été spécifiquement nommé par les participants à l'étude comme descripteur, mais de nombreux utilisateurs ont décrit la conception comme Facile (avec des connotations positives et négatives).

Les questions ouvertes à choix de mots suscitent un large éventail de descripteurs, qui doivent être analysés pour déterminer s'ils expriment efficacement les traits de marque souhaités.

Choix de mots structuré

Exiger des utilisateurs qu'ils choisir des descripteurs dans une liste de termes que vous fournissez est une variation contrôlée de la méthode du choix des mots. En fournissant aux utilisateurs un ensemble limité de mots, cette méthode se concentre spécifiquement sur la perception par les participants des attributs de la marque cible. Les traits de marque que vous espérez transmettre doivent être inclus dans votre liste de termes, ainsi que d'autres choix qui décrivent des qualités contradictoires ou divergentes. Le choix de mots structuré (également connu sous le nom de « test de désirabilité ») est moins sensible que le choix de mots ouvert à la découverte de nouveaux points de vue, mais permet de comparer plus facilement différentes versions d'un design ou les réactions de différents groupes d'audience au même design . Cette technique fonctionne bien dans une étude en personne, où vous pouvez poser des questions de suivi aux utilisateurs et les laisser se référer à la conception pendant qu'ils expliquent leur raisonnement pour sélectionner chaque terme. Il peut également être utilisé dans une étude à distance, mais ce n'est pas une bonne idée de le combiner avec un format de test « 5 secondes », car parcourir une longue liste de mots peut prendre tellement de temps que les utilisateurs arrivent à la fin. Je ne me rappelle pas grand-chose d'un dessin qu'ils n'ont vu que pendant 5 secondes. Au lieu de cela, utilisez un outil de sondage qui permet aux gens de voir le design pendant qu'ils choisissent des mots dans la liste.

Évaluations numériques des perceptions de la marque

Enfin, l'approche la plus contrôlée consiste à collecter des notes numériques sur la façon dont chaque trait de marque est exprimé par la conception. Pour éviter des sessions de test trop longues, choisissez les 3 à 5 qualités de marque les plus importantes et demandez aux gens d'évaluer dans quelle mesure chacune d'elles est capturée par le design. (Plus vous avez de questions, plus le questionnaire est difficile et plus les chances de réponses aléatoires sont élevées.) Étant donné que ce paradigme limite la capacité de découvrir différentes perspectives et réactions, les évaluations numériques ne sont appropriées que si vous avez déterminé les plus courantes. perceptions dans des recherches antérieures et veulent simplement évaluer la force relative de chaque qualité.

Enfin, un mot sur les groupes de discussion : bien qu'ils puissent être utilisés pour capturer les préférences des utilisateurs, cette méthode est risquée si vous ne disposez pas d'un animateur de groupe de discussion talentueux et expérimenté. Il est difficile de recueillir des commentaires détaillés sur une conception visuelle de chaque participant dans une conversation de groupe. Une tactique qui peut aider est de demander aux participants d'écrire leurs propres perceptions avant d'en discuter en groupe, et de recueillir ces commentaires écrits pour une analyse ultérieure. De plus, les groupes de discussion ne capturent aucune information comportementale.


Méthode

Participants

Trente-quatre étudiants d'une université allemande (23 femmes) ont participé à l'expérience en échange d'un crédit de cours. Les données de deux des participants (toutes deux de sexe féminin) ont été rejetées avant l'analyse parce qu'elles ont commis beaucoup trop d'erreurs, ou bien ont répondu beaucoup trop lentement (c'est-à-dire des valeurs éloignées selon Tukey, 1977), ce qui a donné une taille d'échantillon de N = 32. À part un participant qui n'a pas déclaré son âge, l'âge médian était de 24 ans (allant de 19 à 32 ans) et les participants avaient une vision normale ou corrigée à normale. Selon les contraintes de puissance, la SPE qui a été documentée avec des stimuli visuels a été assez importante dans les études précédentes (z > 0,80 Schäfer, Wesslein, et al., 2016 Sui et al., 2012 ). Surtout, nous supposons que la SPE dans notre étude est plus petite en raison du changement de modalité (Spence, Nicholls et Driver, 2001). Cependant, avec N = 32, même un effet de z = 0,45 serait trouvé avec une puissance de 1 – β > 0,80 (α = 0,05, unilatéral calculé avec G*Power, Faul, Erdfelder, Lang, & Buchner, 2007 ).

Procédure

Afin de réduire au minimum le bruit ambiant, les participants ont été testés individuellement dans une chambre d'essai totalement insonorisée et lumineuse. Un expérimentateur a fourni quelques instructions initiales, puis a quitté la pièce, avant que les instructions de la tâche ne soient présentées à l'écran. L'expérience a commencé par une phase d'association, au cours de laquelle les associations à apprendre étaient affichées à l'écran. Ici, pour chaque participant, chacun des trois stimuli tactiles, constitués de différents débuts et décalages d'impulsions vibrotactiles (voir la figure 1), a été attribué à l'une des trois étiquettes. Les associations particulières ont été présentées au participant en présentant une étiquette sur l'écran sous forme écrite dans chaque essai pendant 500 ms, suivie de la livraison d'un seul stimulus tactile (c'est-à-dire impulsion vibrotactile) pendant 300 ms à la main du participant tandis que l'étiquette est restée sur l'écran et est également resté pendant 1700 ms supplémentaires. Après un intervalle interstimulus de 2 000 ms, l'essai suivant a suivi. Chaque association stimulus-étiquette a été présentée six fois. Par conséquent, la phase d'association comprenait 18 essais présentés dans un ordre aléatoire. Les participants ont été chargés d'apprendre ces associations – plus précisément, les associations d'étiquettes et d'impulsions vibrotactiles présentées à leur main – et ont été informés qu'ils seraient interrogés à leur sujet plus tard.

La tâche d'appariement a suivi après la phase d'association. La tâche du participant était de juger si chaque combinaison stimulus-étiquette présentée correspondait ou non à l'une des associations initialement apprises. Ici, les participants ont été invités à placer leur index gauche sur la touche S (réponse non correspondante) et leur index droit sur la touche L (réponse correspondante). Tout au long de l'expérience, leurs deux bras ont été placés sur des accoudoirs afin d'éviter toute perturbation due au stimulus tactile délivré à la main gauche.

Après 12 essais pratiques, la phase de test de la tâche d'appariement a commencé. Dans chaque essai, après une lame vierge (500 ms) et une croix de fixation (550 ms), une combinaison stimulus-étiquette a été présentée. Cependant, cette combinaison stimulus-étiquette contenait une étiquette et un stimulus visuel clignotant qui apparaissaient simultanément à l'écran (pour une présentation schématique des stimuli, voir la figure 1). Le stimulus clignotant avait une durée de 100 ou 300 ms (voir Figure 1), et l'étiquette restait à l'écran pendant un maximum de 1 500 ms ou jusqu'à ce qu'une réponse soit donnée. Si aucune réponse n'était détectée, une diapositive vierge apparaissait jusqu'à ce qu'une réponse soit enregistrée. Chacune des neuf combinaisons possibles de stimulus-étiquette a été présentée plusieurs fois et dans un ordre aléatoire, les combinaisons correspondantes étant présentées deux fois plus souvent, donnant ainsi lieu à un nombre égal d'essais correspondants et non correspondants. La phase de test consistait en 144 essais, et aucune rétroaction n'a été donnée pour empêcher un apprentissage ultérieur. Il est important de noter qu'avant cette phase de test, les participants n'étaient pas informés que les motifs tactiles pouvaient passer aux motifs visuels, ils n'avaient donc aucune idée d'un changement potentiel de modalité.

Matériel et appareillage

L'expérience a été menée en utilisant des PC standard avec des moniteurs TFT standard, des claviers QWERTZ allemands et le logiciel E-Prime 2.0. Les étiquettes étaient écrites en Courier New et présentées en blanc sur fond noir. Les étiquettes étaient toujours présentées au milieu de l'écran pour avoir la plus grande cohérence entre la phase d'association avec les stimuli tactiles et la tâche d'appariement avec les stimuli visuels. Ainsi, dans la phase d'association, chaque étiquette était présentée au centre de l'écran et chaque stimulus tactile était présenté sur la main gauche du participant, tandis que dans la tâche d'appariement, l'étiquette était présentée depuis le centre de l'écran et un stimulus clignotant au-dessus (voir Figure 1). Avec une distance d'observation d'environ 50 cm tout au long de l'expérience, les étiquettes ont sous-tendu un angle visuel de 0,7° verticalement. Les stimuli tactiles utilisés ont été construits comme suit : une impulsion continue de 300 ms comme stimulus A, une séquence d'une impulsion de 100 ms, une pause de 100 ms et une impulsion de 100 ms comme stimulus B, et une impulsion de 100 ms comme Stimulus C (voir Figure 1). La présentation des stimuli tactiles (

250 Hz, environ 71 m d'amplitude crête à crête) a été contrôlé via une interface série. C'est-à-dire que les stimuli vibrotactiles ont été délivrés au moyen d'un tactor (Modèle C-2, Engineering Acoustic, Inc.) qui avait 1,17 cm de diamètre et 0,30 cm d'épaisseur. Le stimulus visuel était présenté comme une séquence de carrés gris clair sur un fond noir (avec un angle visuel de 2,6° × 2,6°) suggérant un stimulus clignotant. Il est important de noter que chaque motif visuel reflétait exactement l'un des motifs tactiles. Ainsi, soit un flash continu de 300 ms (Stimulus A), un flash de 100 ms, une pause de 100 ms, une séquence de flash de 100 ms (Stimulus B) ou un flash de 100 ms (Stimulus C) a été présenté (voir Figure 1 )1 1 Notez qu'avant le début de l'expérience, les participants ont effectué une tâche de combinaison motif-ton qui n'avait aucun rapport avec l'étude actuelle. Dans cette tâche, les stimuli tactiles ont été présentés sur la main gauche ou droite du participant et ont été combinés avec l'un des deux tons. Les participants devaient indiquer la main sur laquelle ils percevaient le stimulus. Pour tester si cette tâche précédente a eu une influence sur le modèle de données dans la tâche d'appariement, un 2 (condition de ton dans la tâche de combinaison modèle-ton : ton 1 vs. ton 2) × 2 (condition de correspondance : correspondant à vs. non-correspondant) × 3 (association : soi vs. ami vs. étranger) MANOVA à mesures répétées a été menée avec la « condition de tonalité dans la tâche de combinaison motif-tonalité » comme facteur entre les participants. L'analyse n'a révélé aucune influence, nous n'avons trouvé ni un effet principal, F(1, 30) = 1.14, p = .294,p 2 = 0,04, ni aucun effet d'interaction avec ce facteur, tous Fs < 1, tous ps> .474. .

Nous avons utilisé les mots allemands Ich [I] en tant qu'étiquette pertinente et Freund [ami] et Fremder [étranger] comme les deux étiquettes non pertinentes. L'étiquette d'ami a été choisie pour avoir une condition de comparaison forte pour les conditions pertinentes, car un ami est une personne « proche de soi, mais pas de moi-même ». Les affectations de ces étiquettes aux impulsions vibrotactiles particulières, c'est-à-dire les associations stimulus-étiquette concrètes, ont été modifiées suivant un plan du carré latin. Ainsi, chaque étiquette a été attribuée à chaque stimulus vibrotactile pour un tiers des participants.

Concevoir

Comme typique pour le paradigme d'appariement, l'expérience comprenait un 2 (condition d'appariement : correspondant à vs. non-correspondant) × 3 (association : soi vs. ami vs. étranger) plan expérimental à mesures répétées. Le facteur « association » représente ainsi l'association qui a été donnée au stimulus tactile dans la phase d'association bien que la performance n'ait été analysée que dans les essais où des stimuli visuels ont été présentés (c'est-à-dire dans la tâche d'appariement). Par conséquent, tous les essais correspondants ou non correspondants avec un stimulus visuel particulier (par exemple, le stimulus A) ont été regroupés sur la base du fait que l'équivalent tactile était associé à une étiquette particulière.

La SPE est définie comme une meilleure performance dans les essais d'appariement auto-associés par rapport aux essais d'appariement associés (Sui et al., 2012), de sorte que nous testerons notre hypothèse dans la condition d'appariement. Les essais sans correspondance servent uniquement d'essais de remplissage pour faire de la tâche d'appariement une tâche utile (de sorte que les participants doivent comparer chaque combinaison présentée aux combinaisons apprises précédemment). Par conséquent, aucune hypothèse n'a été formulée par rapport à cette condition.


Le seuil absolu pour l'audition

Le seuil absolu pour l'entendre du premier au niveau sonore le plus bas qu'une personne ayant une audition normale peut détecter au moins 50 % du temps lorsqu'aucun autre son n'est présent. Par exemple, les chercheurs pourraient tester le seuil absolu de détection du son d'un métronome.

En général, les enfants ont tendance à détecter des niveaux sonores inférieurs chez les adultes parce que leur audition est plus sensible. À mesure que les gens vieillissent, l'audition a tendance à décliner.


Instructions

Si vous ne voyez pas six (6) onglets en haut, élargissez votre navigateur ou faites pivoter votre téléphone ou votre tablette pour qu'il soit large.

Mode plein écran

Pour voir l'illustration en plein écran, ce qui est recommandé, appuyez sur le bouton Plein écran bouton qui apparaît en haut de la page.

Onglet Paramètres de stimulation

Sur cet onglet, vous pouvez ajuster le type de stimulus et les différents paramètres du stimulus pour voir comment cela pourrait affecter votre capacité à détecter le point. Les paramètres incluent les éléments suivants :

Diamètre du point: le diamètre du point en pixels.

Position du point: la distance à laquelle se trouve le point au-dessus du repère de fixation (en nombre de diamètres du repère de fixation).

Niveau d'arrière-plan: luminosité du fond sur lequel le point doit être détecté (dans les valeurs d'intensité de base de l'écran). Les valeurs des points sont des différences par rapport à ce niveau.

Réinitialiser: en haut de la page des paramètres se trouve un Réinitialiser bouton. Appuyez sur ce bouton pour restaurer les paramètres de la méthode à leurs valeurs par défaut.

Onglet Paramètres de méthode

Sur cet onglet, vous pouvez ajuster le fonctionnement de la méthode. Les paramètres incluent les éléments suivants :

Type de méthode de stimuli constants: Traditionnel ou Choix Forcé. En Traditionnel, on vous demande si le stimulus est présent. Dans Forced-Choice, il vous sera demandé si le stimulus se trouve dans l'un des deux emplacements ou l'une des deux périodes. Pour en savoir plus sur le choix forcé, voir ici.

Nombre de niveaux de luminance relative des points: combien de niveaux différents d'intensité de votre stimulus.

Nombre de répétitions: combien de fois chaque stimulus sera présenté.

Valeur minimale de la luminance relative des points: quel est le point le moins intense à afficher.

Valeur maximale de la luminance relative des points: quel est le point le plus intense à afficher.

Réinitialiser: En haut de la page des paramètres se trouve un Réinitialiser bouton. Appuyer sur ce bouton restaure les paramètres du stimulus à leurs valeurs par défaut.

Onglet Test

Dans l'onglet Expérience, appuyez sur la barre d'espace ou sur le Début sur l'écran pour démarrer l'expérience. Gardez les yeux fixés sur le signe plus rouge au milieu de l'écran. Un point sera présenté au-dessus de cette marque.
Instructions de la méthode traditionnelle : Une fois le point présenté, des boutons apparaîtront, vous demandant si vous avez vu le point. Cliquez ou appuyez sur Oui (ou appuyez sur la touche Z) si vous avez et non (ou appuyez sur la touche /) si vous n'avez pas vu le point. Une fois l'expérience terminée, vous serez informé que vous pouvez afficher vos résultats.
Instructions de la méthode à choix forcé : En plus du point situé au-dessus du repère de fixation, il sera soit à droite, soit à gauche du repère de fixation. Une fois le point présenté, des boutons apparaîtront pour vous demander si le point se trouve à gauche ou à droite de la marque de fixation. Cliquez sur le bouton approprié ou appuyez sur Z pour la gauche ou la touche / pour la droite. Si vous ne savez pas de quel côté le point est apparu, vous devez le deviner.

Onglet Résultats

Vos données seront présentées sur cet onglet. Sur l'axe des abscisses se trouveront les différents niveaux d'intensité du stimulus. Sur l'axe des y figurera la proportion d'essais pour lesquels vous avez signalé avoir détecté le stimulus pour chaque intensité. Pour voir votre seuil, qui est déterminé par une simple méthode d'interpolation linéaire, cliquez sur le bouton qui dit Afficher le seuil. La valeur sera affichée sous le graphique et mise en évidence sur le graphique. Pour afficher les données indiquant la proportion d'essais que vous détectez pour chaque intensité de stimulus, cliquez sur le bouton Afficher les données bouton.

Paramètres des stimuli dans la méthode d'expérience de stimuli constants

Modifiez les paramètres ci-dessous pour modifier les paramètres de stimulus dans cette expérience.


Rester en phase avec les stimuli sociaux et non sociaux : synchronisation avec les signaux auditifs, visuels et audiovisuels

Les interactions sociales quotidiennes nous obligent à surveiller, prévoir et synchroniser étroitement nos mouvements avec ceux d'un partenaire en interaction. Les études expérimentales sur la synchronie sociale examinent généralement les résultats sociocognitifs associés à la synchronie, tels que l'affiliation. D'autre part, les recherches sur les aspects sensorimoteurs de la synchronisation utilisent généralement des stimuli non sociaux (par exemple un point mobile). À ce jour, les différences dans les aspects sensorimoteurs de la synchronisation avec les stimuli sociaux par rapport aux stimuli non sociaux restent largement inconnues. La présente étude vise à combler cette lacune en utilisant un paradigme de réponse verbale où les participants ont été invités à synchroniser un "ba’ réponse dans le temps avec des stimuli sociaux et non sociaux, qui ont été présentés de manière auditive, visuelle ou audio-visuelle combinée. Pour les stimuli sociaux, un enregistrement vidéo/audio d'un acteur exécutant le même « verbal »baLa réponse a été présentée, tandis que pour les stimuli non sociaux, un point mobile, un métronome auditif ou les deux combinés ont été présentés. L'impact des traits autistiques sur les performances de synchronisation des participants a été examiné à l'aide du quotient du spectre autistique (AQ). Nos résultats ont révélé une synchronisation plus précise pour les stimuli sociaux par rapport aux stimuli non sociaux, suggérant qu'une plus grande familiarité et une plus grande motivation à assister aux stimuli sociaux peuvent améliorer notre capacité à mieux prédire et synchroniser avec eux. Les personnes ayant moins de traits autistiques ont démontré un plus grand apprentissage social, tel qu'indexé par une amélioration des performances de synchronisation avec les stimuli sociaux par rapport aux stimuli non sociaux tout au long de l'expérience.


Blindsight : quand le cerveau voit ce que vous ne voyez pas

Quand pouvez-vous voir ce que vous ne pouvez pas voir ? Lorsque vous avez une vision aveugle, une « condition », dit l'Oxford Concise Dictionary, « dans laquelle le patient répond aux stimuli visuels sans les percevoir consciemment. » Ici, la chercheuse en vision Susana Martinez-Conde décrit comment un homme nommé DB perçoit les patchs scintillants de Gabor (voir l'illustration ci-dessus ) avec beaucoup plus de précision et de cohérence dans son œil "aveugle" que dans son œil voyant - même s'il nie avoir jamais rien vu avec l'œil aveugle. Les trucs de Sacksian ici lisent et se demandent.

Blindsight : les aveugles guidant les voyants


DB est un homme de 67 ans qui est aveugle de la moitié gauche de son champ visuel depuis l'âge de 26 ans, à la suite d'une opération neurochirurgicale. L'opération, qui a été nécessaire pour retirer une malformation vasculaire de son lobe occipital, a malheureusement détruit la partie de l'hémisphère droit de DB correspondant au cortex visuel primaire. Le cortex visuel primaire, également appelé zone V1, est la plus grande zone du cerveau et l'une des plus de deux douzaines de régions dédiées à la vision. V1 remplit de nombreuses fonctions importantes. Parmi eux, il relaie les informations visuelles des yeux vers les zones visuelles corticales supérieures. Comme DB a perdu la moitié droite de la zone V1, cela n'a pas surpris ses médecins qu'il soit devenu aveugle dans la moitié gauche de son champ visuel. (La partie droite du cerveau traite les informations visuelles de la moitié gauche du champ visuel, et vice versa.) "Devinez" de nombreuses propriétés des cibles qui y sont présentées, telles que la forme, l'emplacement spécifique et d'autres aspects que l'on ne pouvait connaître qu'en les voyant. La capacité de DB à fournir des informations précises sur des cibles invisibles est appelée « vue aveugle ». On pense que la vue aveugle est due au flux d'informations via des voies neuronales secondaires qui contournent la zone V1 mais qui transmettent néanmoins une petite quantité d'informations visuelles aux cortex visuels supérieurs. Pour une raison inconnue, ces voies secondaires ne suffisent pas à maintenir la sensation de la vue. Ainsi, le patient aveugle a le sentiment subjectif qu'il est aveugle et ne rapporte des informations visuelles que lorsqu'il est obligé de deviner. Le psychologue de l'Université d'Oxford Larry Weiskrantz et ses collègues testés ont commencé à tester de manière approfondie les capacités de DB dans les années 1970 et 1980 et se sont poursuivis jusqu'à ce jour. Entre-temps, d'autres patients aveugles ont été identifiés et examinés. Cependant, les capacités de détection de DB sont considérablement supérieures aux autres cas de vision aveugle. Dans l'article examiné ici, « La vision aveugle peut-elle être supérieure à la « vue visuelle » ? », Ceri Trevethan, Arash Sahraie et Weiskrantz ont entrepris de comparer directement la sensibilité au champ aveugle de DB avec sa sensibilité au champ visuel et également avec une vision normale dans un groupe de volontaires sains . Au pays des voyants, l'aveugle est roi Trevethan, Sahraie et Weiskrantz ont mené trois expériences. Dans l'expérience 1, ils ont informé DB qu'un stimulus visuel appelé patch Gabor (voir la figure ci-dessous) apparaîtrait sur un écran gris dans l'un des deux intervalles de temps. Ils demandaient ensuite à DB d'indiquer, en appuyant sur un bouton, dans quel intervalle de temps la cible était apparue, il lui était demandé de choisir l'un des deux intervalles même s'il n'était pas complètement sûr d'avoir vu quelque chose - en d'autres termes, de deviner . Dans cette première expérience les présentations de stimulus aux aveugles et aux champs voyants étaient "bloquées" œil gauche), suivies de 30 présentations de stimuli au champ voyant. Étonnamment, DB a mieux performé dans son champ aveugle que dans son champ voyant, et de loin. Il a correctement identifié l'intervalle de temps contenant le stimulus 87 % du temps dans son champ aveugle contre seulement 50 % du temps dans son champ voyant - un taux cohérent avec celui qu'il obtiendrait s'il devinait.
Cependant, comme les essais étaient bloqués, il était théoriquement possible que DB ait pu varier d'une manière ou d'une autre sa performance selon qu'il s'attendait à voir le stimulus après tout, il s'attendait à le voir dans son œil droit mais pas dans son œil gauche. Ainsi, dans une deuxième variante de l'expérience 1, un total de 100 présentations de stimuli ont été entrelacées au hasard des deux côtés. Dans cet essai, DB ne pouvait pas savoir si un stimulus donné apparaîtrait dans le champ aveugle ou voyant, il a donc dû aborder la tâche exactement de la même manière dans l'une ou l'autre situation. Il a de nouveau fait beaucoup mieux détecter le stimulus dans le champ aveugle (84 pour cent correct) que dans le champ voyant, où il a de nouveau détecté correctement seulement 50 pour cent. Ironiquement, DB a trouvé que les tests sur le terrain du côté voyant travaillaient dur, alors que les tests sur le terrain à l'aveugle semblaient sans effort ("Pas de problème, je devine simplement"). Dans l'expérience 2, Trevethan et ses collègues ont quantifié la différence de sensibilité entre les champs aveugles et voyants en présentant une gamme de contrastes de stimulus, certains chiffres étant plus contrastés et donc plus faciles à détecter que d'autres. Dans son champ aveugle, DB a pu détecter des stimuli avec un contraste aussi faible que 6 %. Dans son champ de vision, il avait besoin d'un stimulus de contraste de 12 pour cent pour une détection réussie. Bien que ces résultats semblaient jusqu'à présent étonnants, une explication potentiellement banale subsistait. Peut-être que le champ visuel de DB souffrait simplement d'une mauvaise vision. Si c'est le cas, sa performance supérieure dans son champ aveugle pourrait simplement refléter la vision anormalement mauvaise dans son champ visuel. Pour écarter cette possibilité, Trevethan et ses collègues ont réalisé une dernière expérience. Dans l'expérience 3, ils ont testé un groupe de six participants naïfs (c'est-à-dire novices dans de tels tests) du même âge ayant une vision normale, en utilisant la même tâche de détection que dans l'expérience 1. Les résultats ont montré que la vision de DB dans son champ de vision était équivalente. à celle de sujets normaux et sains. En conclusion, la sensibilité au champ aveugle de DB n'est pas seulement supérieure à son propre champ visuel, mais aussi à une vision normale. Conscience sans perception Un aparté intéressant concerne les rapports de DB sur la conscience subjective pendant les expériences. Dans l'expérience 1, il a été demandé à DB de signaler tout sentiment de conscience subjective des stimuli, ou son absence, après chaque présentation de stimulus. Il n'a signalé aucune conscience des stimuli présentés au champ voyant (confirmant qu'il devinait essentiellement), mais il avait une conscience subjective de 80 pour cent des stimuli présentés au champ aveugle. Cependant, cette conscience subjective ne ressemblait en rien à une expérience visuelle qu'il a nié avoir eu une quelconque expérience de la vision dans son champ aveugle, mais a décrit sa conscience subjective des stimuli comme "se sentir comme si un doigt pointait à travers l'écran". présentés au champ aveugle ont disparu pendant les essais entrelacés, dans lesquels les présentations de stimuli aux champs aveugles et voyants étaient mélangées. Cette découverte suggère que la conscience subjective de DB pendant les présentations en champ aveugle est liée à son attente qu'il ne sera pas capable de voir réellement le stimulus pendant ces essais. Les aspects les plus fascinants de cette étude sont doubles. Premièrement, l'étude dissocie de manière intrigante le sentiment de conscience du sentiment d'expérience visuelle. C'est-à-dire que DB est parfois subjectivement conscient des stimuli auxquels il est aveugle. Ainsi (le manque de) fonction dans la zone V1 peut ne pas être critique pour la conscience subjective en soi, mais pour le sentiment d'expérience visuelle. Si un V1 manquant est le seul défaut de votre système de vision, vous pouvez en fait être conscient de beaucoup de choses que vous ne pouvez pas voir. Deuxièmement, ce travail révolutionne la définition de la vision aveugle d'un ensemble résiduel de compétences visuelles à un type de vision supérieure. Mais ne soyons pas trop rapides pour conclure que les individus aveugles ont des super pouvoirs visuels – Daredevil, le super-héros aveugle de Marvel Comics avec une perception de type radar, me vient à l'esprit. Quelqu'un jouant l'avocat de (Dare)devil pourrait suggérer que DB, qui a participé à de nombreuses expériences de vision au fil des ans, montre des capacités de détection impressionnantes parce qu'il a passé des années à pratiquer un type spécifique de compétence dans des conditions expérimentales familières. Il se peut également que d'autres patients présentant des lésions similaires ne partagent pas l'extraordinaire vision aveugle de DB. Et malgré ses prouesses en laboratoire, DB pourrait ne pas vouloir enfiler un costume en spandex et commencer à lutter contre le crime pour l'instant. Nonetheless, this paper raises some questions that vision and consciousness researchers are sure to focus on, and it demonstrates that -- at least in certain conditions -- blindsight can be superior to normal sight. As Daredevil once said: "Yeah, tell them you got beat by a blind man, too."
Susana Martinez-Conde is the director of the Barrow Neurological Institute's Laboratory of Visual Neuroscience, where she studies, the neural code and dynamics of visual perception.

The views expressed are those of the author(s) and are not necessarily those of Scientific American.


Human Factors and Applied Psychology Student Conference

The redundant signals effect (RSE) refers to a decrease in response time (RT) when multiple signals are present compared to when one signal is present. The RSE is widespread when responses are made to specific signals for example, a participant who is asked to respond to the letter “N” will respond more quickly to two “Ns” than to one “N.” The current research was conducted to determine whether or not the RSE generalizes to categorical signals. In Experiment 1, participants pressed a button when they saw any number on a computer screen. Each trial contained two stimuli subtending 1º visual angle and placed 3º above and below the center of the screen. Both stimuli were letters on 50% of trials (no-signal condition), one stimulus was a number on 25% of trials (single-signal condition), and both stimuli were numbers on 25% of trials (redundant-signal condition). RT was faster in the redundant-signal condition (461 ms) than in the single-signal condition (509 ms, p DOWNLOADS


Minimum duration for presenting a visual stimulus on screen - Psychology

1 Gippsland Physiotherapy Group, Melbourne, Australia 2 VIT University, Vellore, India.

Received May 30 th , 2010 revised August 2 nd , 2010 accepted August 7 th , 2010.

Mots clés: Reaction time, Auditory stimuli, Visual stimuli, Neuromuscular-physiological response, auditory cortex, visual cortex, muscle contraction

Objective: The purpose of this study was to find out whether the simple reaction time was faster for auditory or visual stimulus and the factors responsible for improving the performance of the athlete. Methodology: 14 subjects were assigned randomly into groups consisting of 2 members. Both the members from each group performed both the visual and auditory tests. The tests were taken from the DirectRT software program from a laptop. The DirectRT software consists of Testlabvisual and Testlabsounds to test the reaction times to visual and auditory stimuli. The 2 members from each group completed both the visual and auditory reaction times, the data was taken and the mean reaction time was calculated excluding the first and last values. Results: The results show that the mean visual reaction time is around 331 milliseconds as compared to the mean auditory reaction time of around 284 milliseconds. Conclusion: This shows that the auditory reaction time is faster than the visual reaction time. And also males have faster reaction times when compared to females for both auditory as well as visual stimuli.

Reaction time (RT) is the elapsed time between the presentation of a sensory stimulus and the subsequent behavioral response. Simple reaction time is usually defined as the time required for an observer to detect the presence of a stimulus. It is a physical skill closely related to human performance. It represents the level of neuromuscular coordination in which the body through different physical, chemical and mechanical processes decodes visual or auditory stimuli which travel via afferent pathways and reach the brain as sensory stimuli.

Simple reaction time can be determined when an individual is asked to press a button as soon as a light or sound appears.Research done by Pain & Hibbs, reference [1], shows that simple auditory reaction time has the fastest reaction time for any given stimulus. A study done by Thompson et al., reference [2] has documented that the mean reaction time to detect visual stimuli is approximately 180 to 200 milliseconds, whereas for sound it is around 140-160 milliseconds. On the other hand, there are also researches done by Yagi et al., reference [3], that show that reaction time to visual stimuli is faster than to auditory stimuli. Research by Verleger, reference [4] also confirms that visual reaction time is faster than auditory reaction time during or after exercise.

There are various factors that affect the reaction time to a stimulus. Factors like intensity and duration of the stimulus, age and gender of the participant, effect of practice can affect the reaction time of an individual to a particular stimulus. For example, there are relative differences between the reaction time to visual and auditory stimuli between genders. Male athletes tend to be faster than their female counterparts in responding to different stimuli. Researches done by Engel, reference [5], show the reaction time to sound to be faster in males when compared to females. Studies done by Dane et al., reference [6], show the difference in reaction time in eye-hand reaction time among male and female handball players.

The purpose of this study was to find out whether the simple reaction time was faster for auditory or visual stimulus and the factors responsible for improving the performance of the athlete.

14 subjects were randomly divided into groups consisting of 2 members. Both the members from each group performed both the visual and auditory tests. The tests were taken from the DirectRT software program in the laptop. The tests for visual reaction time were taken from the ‘testlabvisual’ file in the DirectRT program. Before starting the test, the subjects were asked to give individual file numbers under the ‘enter codes’ menu, in order to access the data after the test. In the testlabvisual test, the subjects were asked to press the ‘space bar’ key, every time they saw a yellow box on the screen. Once the test was completed, the data was taken from the output file, the mean reaction time was calculated excluding the first and last values. After both the subjects from each group completed the visual test, they undertook the auditory reaction test. This was taken from the ‘testlabsounds’ file in the DirectRT program. In the testlabsounds test, the subjects were asked to press the ‘spacebar’ key, every time they heard a ‘beep’ sound. Once the test was completed, the data was taken from the output file, the mean reaction time was calculated excluding the first and last values. After both the members of a group completed the visual and auditory tests, the mean reaction time data for both the visual and auditory tests were entered in the laptop.

The results show that the auditory reaction time is faster than the visual reaction time. And also males have faster reaction times when compared to females for both auditory as well as visual stimuli.

As the result shows, in Figure 1 , the mean visual reaction time is around 331 milliseconds as compared to the mean auditory reaction time of around 284 milliseconds. This confirms that the auditory reaction time is definitely faster compared to the visual reaction time. This finding is similar to the studies done by Pain & Hibbs, reference [1]

Figure 1 . Graph showing faster simple reaction time for auditory stimulus compared to visual stimulus.

and Thompson et al., reference [2], which also show that auditory reaction time is faster than visual reaction time.

Reaction time is dependent on several factors like arrival of the stimulus at the sensory organ, conversion of the stimulus by the sensory organ to a neural signal, neural transmissions and processing, muscular activation, soft tissue compliance, and the selection of an external measurement parameter (Pain & Hibbs, reference [1]). Researches by Kemp et al., reference [7], show that an auditory stimulus takes only 8-10 milliseconds to reach the brain, but on the other hand, a visual stimulus takes 20-40 milliseconds. This implies that the faster the stimulus reaches the motor cortex, faster will be the reaction time to the stimulus. Therefore since the auditory stimulus reaches the cortex faster than the visual stimulus, the auditory reaction time is faster than the visual reaction time.

Reaction times are widely used to evaluate neuromuscular-physiological responses in sports. Studies by Pain & Hibbs, reference [1], have shown that the neuromuscular-physiological component of an auditory reaction time for sprint athletes can be around 85 milliseconds. Faster reaction times are significant for better performance of athletes. The faster the stimulus reaches the brain, the faster the signal is processed and the necessary responses are sent for the necessary motor reaction. Van den Berg et al., reference [8], also found that fatigue due to sleep deprivation caused subjects to have slower reaction times. Studies by Ando et al., reference [9], reported that reaction times reduced with repeated practice. Therefore reaction times to a particular stimulus can be made faster with repeated practice with a particular stimulus and with adequate rest in between stimuli.

In this study, as seen in Figure 2 , it was also found that the male subjects had faster reaction times compared to the female subjects for both auditory as well as visual stimuli. This finding is similar to the research done by Dane et al., reference [6]. The reason for this difference

Figure 2 . Graph showing males having faster simple reaction time compared to females for both auditory and visual stimuli.

could be that it takes the same time for both the auditory and visual stimuli to reach the cortex but the time taken for the corresponding motor response and muscle contraction might differ. This was documented in the study done by Silverman, reference [10], that the motor response is faster in males when compared to females because they are comparatively stronger than females. This explains why males have faster simple reaction times for both auditory as well as visual stimuli.

From the above study it can be concluded that simple reaction time is faster for auditory stimuli compared to visual stimuli. Auditory stimuli has

&bull The fastest conduction time to the motor cortex.

&bull Fast processing time in the auditory cortex.

&bull Therefore faster reaction time and quick muscle contraction.

&bull And on the whole improves the performance of the athlete.

As exercise physiologists, our main aim is to improve the speed, skill and performance of the athlete. The above evidences suggest that speed and performance of an activity can be improved with faster reaction time to a stimulus. From the above findings of the study, faster reaction times can be achieved by providing repeated auditory stimuli and with adequate periods of rest between the stimuli.


Information processing through the first year of life: a longitudinal study using the visual expectation paradigm

This Monograph uses a developmental function approach to describe age-related change and individual differences in infant information processing during the first year of life. The Visual Expectation Paradigm (VExP) is used to measure speed of information processing, response variability, and expectancy formation. Eye-movement reaction times and anticipatory saccades were gathered from 13 infants assessed monthly from 2 to 9 months and then again at 12 months. Analysis of response patterns demonstrated the applicability of the paradigm throughout the age range studied. Converging operations strongly indicate that the traditional estimate of the minimum time required for infants to initiate a saccade to a peripheral stimulus may be as much as 100 milliseconds (ms) too long. Moreover, the newly estimated minimum of 133 ms does not appear to change during the 2-12-month period. Reanalysis of the present data and past research reveals that the new, shorter minimum reaction time is unlikely to affect findings based on mean reaction time. However, using the traditional minimum reaction time will inflate estimates of percentage anticipation, especially in infants older than 5 months. Group and individual growth curves are described through quantitative models of four variables: reaction time, standard deviation of reaction time, percentage anticipation, and anticipation latency. Developmental change in reaction time was best described by an asymptotic exponential function, and evidence for a local asymptote during infancy is presented. Variability in reaction time was found to decline with age, independent of mean reaction time, and was best described by a polynomial function with linear and quadratic terms. Anticipation showed little lawful change during any portion of the age span, but latency to anticipate declined linearly throughout the first year. Stability of individual differences was strong between consecutive assessments of mean reaction time. For nonconsecutive assessments, stability was found only for the 6-12-month period. Month-to-month stability was inconsistent for reaction-time variability and weak for both anticipation measures. Analyses of individual differences in growth curves were carried out using random regressions for the polynomial models. The only significant individual difference (in growth curves) was found for reaction-time variability. Parameter estimates from the exponential models for reaction time suggested two or three developmental patterns with different exponential trajectories. This finding indicates that the strong form of the exponential growth hypothesis, which states that processing speed develops at the same rate for all individuals, does not hold for the first year of life. In the concluding chapter, Grice's Variable Criterion Model (Grice, 1968) is used to integrate three key findings: regular age changes in mean reaction time and variability but no age change in the minimum reaction time. It is argued that the rate of growth of sensory-detection information is developmentally constant during much of the first year but that age changes occur in the level and spread of the distribution of response threshold values. The unique strengths of the paradigm are discussed, and future directions are suggested for further developing the paradigm itself and for using it as a tool to study broad issues in infant cognition.