Informations

Quelle est la puissance cérébrale consacrée à la vision et à l'haptique ?

Quelle est la puissance cérébrale consacrée à la vision et à l'haptique ?

J'ai entendu une conférence de Vincent Hayward sur le sens du toucher en tant que système multimodal, où il affirmait que la puissance cérébrale consacrée à l'haptique est au moins aussi grande que celle consacrée à la vision. J'ai trouvé quelques réponses concernant la vision, qui prétendent que le pourcentage se situe entre 25 % et 33 % du néo-cortex. L'homoncule cortical montre une carte sensorielle du corps, où je suppose que l'œil représenté est plus lié à la partie haptique de la région oculaire, plutôt qu'à la vision.

  • Pouvez-vous confirmer le pourcentage pour la vision?
  • Quel est le pourcentage pour l'haptique ?

Bien sûr, des sources pouvant être citées seraient fantastiques, mais un nombre approximatif suffirait également. Je suis surtout intéressé par la relation relative approximative entre les deux modalités.


Je dirais que le "pouvoir du cerveau" est dangereusement vague. Regardez-vous le poids, le volume, la surface (y compris ou excluant le pliage cortical), regardez-vous uniquement le cortex ou l'ensemble du cerveau ?

À un niveau inférieur, comptez-vous uniquement les corps cellulaires, ou comptez-vous les processus qui les relient ? pesez-vous simplement le tout et essayez-vous de déterminer le « pouvoir » de cette façon ? Comptez-vous de longs axones faisant saillie du système nerveux périphérique ? Parce que le toucher aurait un avantage énorme sur la vision si vous comptiez le poids de ces axones longs, épais et myélinisés dans la colonne vertébrale.

Aucune de ces mesures physiques directes ne vous donnera une estimation de la « puissance » car la puissance implique d'autres facteurs plus cognitifs ; vitesse et capacité notamment. La myélinisation donne une vitesse de réponse aux neurones, tout comme l'épaisseur. Mais un neurone plus court sera plus rapide (plus puissant ?) sera.

Mais cela ne parle que de vitesse - qu'en est-il de la capacité ? Le nombre total de points d'entrée individuels peut être lié à la capacité, mais le cerveau effectue beaucoup de post-traitement sur l'entrée visuelle pour lui permettre de traiter beaucoup plus d'informations que les yeux ne lui en donnent à un moment donné. La capacité est-elle liée au nombre de synapses que chaque neurone fait ? Cela a probablement plus à voir avec la "profondeur" du traitement que la capacité, car cela implique que chaque perception est envoyée à plus d'endroits.

Et au-delà même de la vitesse, de la profondeur et de la capacité, qu'en est-il de l'apprentissage ? Quel système a la plus grande capacité d'apprendre de manière adaptative et de transmettre les informations apprises aux parties décisionnelles du cerveau ? Comment mesurez-vous cela? Par le nombre de récepteurs NMDA dans chaque système ?

Aussi, c'est quoi ce truc de "toucher" de toute façon ? Parlez-vous de la perception de la chaleur, du froid, de la douleur (quelle sorte, a$delta$, peut-être des fibres C) ? Parlez-vous de sensations de pression, comme celle ressentie en poussant un objet lourd ? Ce genre de sensations est plus lié à la proprioception qu'au toucher - elles consistent toutes à détecter la réaction de l'environnement au corps en fonction des récepteurs d'étirement dans les muscles, c'est un autre type d'entrée qui constitue le sens hétérogène appelé "toucher".

Chacun de ces types de pression, de toucher superficiel, de douleur, de chaleur et de froid a des projections afférentes différentes, et chacun a son propre substrat dans le cerveau, avec des architectures différentes, des forces et des faiblesses différentes - il n'y a pas de "pouvoir" simple pour comparer ces composants du toucher, encore moins pour comparer le toucher à quelque chose d'aussi lointain que la vision. Ce genre de question et les tentatives d'y répondre obscurcissent dangereusement la science complexe derrière les deux systèmes, donnant un faux sentiment de compréhension où la plupart des questions ci-dessus sont sans réponse, et peut-être sans réponse.


Contenu

— `Commentaires ajoutés au formulaire de consentement pour une opération de lobotomie sur "Helaine Strauss", le pseudonyme utilisé pour "un patient dans un hôpital privé d'élite". [13]

Historiquement, les patients de lobotomie étaient, immédiatement après la chirurgie, souvent stuporeux, confus et incontinents. Certains ont développé un énorme appétit et ont pris un poids considérable. Les convulsions étaient une autre complication fréquente de la chirurgie. L'accent a été mis sur la formation des patients dans les semaines et les mois suivant la chirurgie. [14]

Le but de l'opération était de réduire les symptômes des troubles mentaux, et il a été reconnu que cela se faisait au détriment de la personnalité et de l'intellect d'une personne. Le psychiatre britannique Maurice Partridge, qui a mené une étude de suivi sur 300 patients, a déclaré que le traitement avait atteint ses effets en « réduisant la complexité de la vie psychique ». Après l'opération, la spontanéité, la réactivité, la conscience de soi et la maîtrise de soi ont été réduites. L'activité a été remplacée par l'inertie, et les gens ont été laissés émotionnellement émoussés et limités dans leur gamme intellectuelle. [15]

Les conséquences de l'opération ont été qualifiées de « mitigées ». [16] Certains patients sont décédés à la suite de l'opération et d'autres sont décédés plus tard par suicide. Certains ont été gravement endommagés au cerveau. D'autres ont pu quitter l'hôpital ou sont devenus plus gérables à l'intérieur de l'hôpital. [16] Quelques personnes ont réussi à reprendre un travail responsable, tandis qu'à l'autre extrême, des personnes se sont retrouvées avec des déficiences graves et invalidantes. [17] La ​​plupart des gens appartenaient à un groupe intermédiaire, avec une certaine amélioration de leurs symptômes mais aussi des déficits émotionnels et intellectuels auxquels ils s'adaptaient mieux ou moins bien. [17] En moyenne, il y avait un taux de mortalité d'environ 5 % au cours des années 1940. [17]

La procédure de lobotomie pourrait avoir de graves effets négatifs sur la personnalité du patient et sa capacité à fonctionner de manière indépendante. [18] Les patients de lobotomie montrent souvent une réduction marquée de l'initiative et de l'inhibition. [19] Ils peuvent également éprouver des difficultés à se mettre à la place des autres en raison d'une diminution de la cognition et du détachement de la société. [20]

Walter Freeman a inventé le terme « enfance induite chirurgicalement » et l'a constamment utilisé pour désigner les résultats de la lobotomie. L'opération a laissé aux personnes ayant une "personnalité infantile" une période de maturation qui, selon Freeman, conduirait ensuite à la guérison. Dans un mémoire non publié, il décrit comment « la personnalité du patient a été modifiée d'une manière ou d'une autre dans l'espoir de le rendre plus sensible aux pressions sociales sous lesquelles il est censé exister ». Il a décrit une femme de 29 ans comme étant, à la suite d'une lobotomie, une « patiente souriante, paresseuse et satisfaisante avec la personnalité d'une huître » qui ne pouvait pas se souvenir du nom de Freeman et versait sans cesse du café dans un pot vide. Lorsque ses parents ont eu du mal à gérer son comportement, Freeman a conseillé un système de récompenses (crème glacée) et de punition (smacks). [21]

Au début du 20e siècle, le nombre de patients résidant dans des hôpitaux psychiatriques a augmenté de manière significative [n 2] alors que peu de traitements médicaux efficaces étaient disponibles. [n 3] [27] La ​​lobotomie faisait partie d'une série de thérapies physiques radicales et invasives développées en Europe à cette époque qui marquaient une rupture avec une culture psychiatrique de nihilisme thérapeutique qui prévalait depuis la fin du XIXe siècle. [28] Les nouvelles thérapies physiques « héroïques » conçues à cette époque expérimentale, [29] dont la thérapie antipaludique de la parésie générale des aliénés (1917), [30] la thérapie du sommeil profond (1920), la thérapie par choc insulinique (1933), le cardiazol la thérapie de choc (1934) et la thérapie par électrochocs (1938), [31] ont contribué à imprégner la profession psychiatrique alors thérapeutiquement moribonde et démoralisée d'un sentiment renouvelé d'optimisme dans la curabilité de la folie et la puissance de leur art. [32] Le succès des thérapies de choc, malgré le risque considérable qu'elles représentaient pour les patients, a également contribué à accommoder les psychiatres à des formes d'intervention médicale toujours plus drastiques, y compris la lobotomie. [29]

L'historien clinicien Joel Braslow soutient que de la thérapie antipaludique à la lobotomie, les thérapies psychiatriques physiques « se rapprochent de plus en plus de l'intérieur du cerveau », cet organe prenant de plus en plus « une place centrale en tant que source de maladie et site de guérison ». [33] Pour Roy Porter, autrefois doyen de l'histoire médicale, [34] les interventions psychiatriques souvent violentes et invasives développées au cours des années 1930 et 1940 sont révélatrices à la fois du désir bien intentionné des psychiatres de trouver des moyens médicaux de soulager la souffrance du grand nombre de patients alors hospitalisés en psychiatrie et aussi du manque relatif de pouvoir social de ces mêmes patients pour résister aux interventions de plus en plus radicales voire téméraires des médecins de l'asile. [35] De nombreux médecins, patients et membres de la famille de l'époque pensaient que malgré des conséquences potentiellement catastrophiques, les résultats de la lobotomie étaient apparemment positifs dans de nombreux cas ou, du moins, ils étaient considérés comme tels lorsqu'ils étaient mesurés à côté de l'alternative apparente de institutionnalisation. La lobotomie a toujours été controversée, mais pendant une période du courant médical dominant, elle a même été célébrée et considérée comme un remède légitime de dernier recours pour des catégories de patients qui étaient autrement considérés comme désespérés. [36] Aujourd'hui, la lobotomie est devenue une procédure décriée, synonyme de barbarie médicale et un exemple exemplaire de piétinement médical des droits des patients. [3]

Psychochirurgie précoce Modifier

Avant les années 1930, des médecins individuels avaient rarement expérimenté de nouvelles opérations chirurgicales sur le cerveau de personnes considérées comme folles. Plus particulièrement en 1888, le psychiatre suisse Gottlieb Burckhardt a lancé ce qui est communément considéré comme la première tentative systématique de psychochirurgie humaine moderne. [37] Il a opéré six patients chroniques sous ses soins à l'asile suisse de Préfargier, en enlevant des sections de leur cortex cérébral. La décision de Burckhardt d'opérer était fondée sur trois points de vue dominants sur la nature de la maladie mentale et sa relation avec le cerveau. Premièrement, la croyance que la maladie mentale était de nature organique, et reflétait ensuite une pathologie cérébrale sous-jacente, que le système nerveux était organisé selon un modèle associationniste comprenant un système d'entrée ou afférent (un centre sensoriel), un système de connexion où le traitement de l'information a pris place (un centre d'association), et un système de sortie ou efférent (un centre moteur) et, enfin, une conception modulaire du cerveau où des facultés mentales discrètes étaient connectées à des régions spécifiques du cerveau. [38] L'hypothèse de Burckhardt était qu'en créant délibérément des lésions dans des régions du cerveau identifiées comme des centres d'association, une transformation du comportement pourrait s'ensuivre. [38] Selon son modèle, les malades mentaux pourraient éprouver des « excitations anormales en qualité, quantité et intensité » dans les régions sensorielles du cerveau et cette stimulation anormale serait alors transmise aux régions motrices donnant lieu à une pathologie mentale. [39] Il a expliqué, cependant, que le fait d'enlever le matériel de l'une ou l'autre des zones sensorielles ou motrices pourrait donner lieu à une "grave perturbation fonctionnelle". [39] Au lieu de cela, en ciblant les centres d'association et en créant un "fossé" autour de la région motrice du lobe temporal, il espérait briser leurs lignes de communication et ainsi soulager à la fois les symptômes mentaux et l'expérience de la détresse mentale. [40]

Dans l'intention d'améliorer les symptômes chez les personnes souffrant de troubles violents et insurmontables plutôt que d'effectuer une guérison, [41] Burckhardt a commencé à opérer des patients en décembre 1888, [42] mais ses méthodes chirurgicales et ses instruments étaient bruts et les résultats de la procédure étaient mitigés à meilleur. [39] Il a opéré six patients au total et, selon sa propre évaluation, deux n'ont connu aucun changement, deux patients sont devenus plus calmes, un patient a eu des convulsions épileptiques et est décédé quelques jours après l'opération, et un patient s'est amélioré. [n 4] Les complications comprenaient une faiblesse motrice, une épilepsie, une aphasie sensorielle et une « surdité verbale ». [44] Revendiquant un taux de réussite de 50 pour cent, [45] il a présenté les résultats au Congrès médical de Berlin et a publié un rapport, mais la réponse de ses pairs médicaux était hostile et il n'a pas fait d'autres opérations. [46]

En 1912, deux médecins basés à Saint-Pétersbourg, le neurologue russe Vladimir Bekhterev et son jeune collègue estonien, le neurochirurgien Ludvig Puusepp, ont publié un article examinant une série d'interventions chirurgicales pratiquées sur des malades mentaux. [47] Tout en traitant généralement ces efforts favorablement, dans leur examen de la psychochirurgie, ils ont réservé un mépris incessant pour les expériences chirurgicales de Burckhardt de 1888 et ont estimé qu'il était extraordinaire qu'un médecin qualifié puisse entreprendre une procédure aussi malsaine. [48]

Nous avons cité ces données pour montrer non seulement à quel point ces opérations étaient sans fondement mais aussi à quel point ces opérations étaient dangereuses. Nous ne saurions expliquer comment leur auteur, titulaire d'une licence en médecine, a pu se résoudre à les réaliser. [49]

Les auteurs ont omis de mentionner, cependant, qu'en 1910 Puusepp lui-même avait opéré le cerveau de trois malades mentaux, [n 5] [51] sectionnant le cortex entre les lobes frontal et pariétal. [52] Il avait abandonné ces tentatives en raison de résultats insatisfaisants et cette expérience a probablement inspiré l'invective dirigée contre Burckhardt dans l'article de 1912. [48] ​​En 1937, Puusepp, malgré sa critique antérieure de Burckhardt, était de plus en plus persuadé que la psychochirurgie pouvait être une intervention médicale valable pour les dérangés mentaux. [n 6] [54] À la fin des années 1930, il a travaillé en étroite collaboration avec l'équipe de neurochirurgie de l'hôpital Racconigi près de Turin pour en faire un centre précoce et influent pour l'adoption de la leucotomie en Italie. [55]

Développement Modifier

La leucotomie a été entreprise pour la première fois en 1935 sous la direction du neurologue portugais (et inventeur du terme psychochirurgie) António Egas Moniz. [n 7] [59] Développant d'abord un intérêt pour les troubles psychiatriques et leur traitement somatique au début des années 1930, [60] Moniz a apparemment conçu une nouvelle opportunité de reconnaissance dans le développement d'une intervention chirurgicale sur le cerveau comme traitement de la maladie mentale . [41]

Lobes frontaux Modifier

La source d'inspiration de la décision de Moniz de risquer la psychochirurgie a été obscurcie par des déclarations contradictoires faites sur le sujet par Moniz et d'autres à la fois de manière contemporaine et rétrospective. [61] Le récit traditionnel aborde la question de savoir pourquoi Moniz a ciblé les lobes frontaux en faisant référence aux travaux du neuroscientifique de Yale John Fulton et, plus dramatiquement, à une présentation que Fulton a faite avec son collègue junior Carlyle Jacobsen au deuxième congrès international. de Neurologie tenue à Londres en 1935. [62] Le principal domaine de recherche de Fulton était sur la fonction corticale des primates et il avait établi le premier laboratoire de neurophysiologie des primates d'Amérique à Yale au début des années 1930. [63] Au Congrès de 1935, en présence de Moniz, [n 8] Fulton et Jacobsen ont présenté deux chimpanzés, nommés Becky et Lucy, qui avaient subi des lobectomies frontales et des changements ultérieurs de comportement et de fonction intellectuelle. [64] Selon le récit du congrès de Fulton, ils ont expliqué qu'avant la chirurgie, les deux animaux, et en particulier Becky, la plus émotive des deux, présentaient un « comportement frustrant » – c'est-à-dire qu'ils avaient des crises de colère qui pouvaient inclure se rouler sur le sol et déféquer - si, en raison de leur piètre performance dans un ensemble de tâches expérimentales, ils n'étaient pas récompensés. [65] Suite à l'ablation chirurgicale de leurs lobes frontaux, le comportement des deux primates a changé de manière marquée et Becky a été pacifiée à un tel degré que Jacobsen a apparemment déclaré que c'était comme si elle avait rejoint un "culte du bonheur". [64] Au cours de la section de questions et réponses du document, Moniz, est-il allégué, a "surpris" Fulton en demandant si cette procédure pourrait être étendue aux sujets humains souffrant de maladie mentale. Fulton a déclaré qu'il avait répondu que, bien que possible en théorie, il s'agissait sûrement d'une intervention « trop redoutable » pour une utilisation sur les humains. [66]

Le fait que Moniz ait commencé ses expériences de leucotomie trois mois seulement après le congrès a renforcé la relation apparente de cause à effet entre la présentation de Fulton et Jacobsen et la détermination du neurologue portugais à opérer les lobes frontaux. [67] Comme l'auteur de ce compte Fulton, qui a parfois été revendiqué comme le père de la lobotomie, a pu plus tard enregistrer que la technique avait sa véritable origine dans son laboratoire. [68] Approuvant cette version des événements, en 1949, le neurologue de Harvard Stanley Cobb a fait remarquer lors de son discours présidentiel à l'American Neurological Association que "rarement dans l'histoire de la médecine une observation de laboratoire a été si rapidement et dramatiquement traduite en une procédure thérapeutique" . Le rapport de Fulton, rédigé dix ans après les événements décrits, est cependant sans corroboration dans les archives historiques et ressemble peu à un récit antérieur non publié qu'il a écrit sur le congrès. Dans ce récit précédent, il a mentionné un échange privé et accessoire avec Moniz, mais il est probable que la version officielle de leur conversation publique qu'il a promulguée est sans fondement. [69] En fait, Moniz a déclaré qu'il avait conçu l'opération quelque temps avant son voyage à Londres en 1935, après avoir fait part de son idée de psychochirurgie à son collègue junior, le jeune neurochirurgien Pedro Almeida Lima, dès 1933. [70] Le récit traditionnel exagère l'importance de Fulton et Jacobsen dans la décision de Moniz d'initier une chirurgie du lobe frontal, et omet le fait qu'un ensemble détaillé de recherches neurologiques qui ont émergé à cette époque ont suggéré à Moniz et à d'autres neurologues et neurochirurgiens que la chirurgie sur ce partie du cerveau pourrait entraîner des changements de personnalité importants chez les malades mentaux. [71]

Comme les lobes frontaux ont fait l'objet d'enquêtes et de spéculations scientifiques depuis la fin du XIXe siècle, la contribution de Fulton, bien qu'elle ait pu servir de source de soutien intellectuel, est en elle-même inutile et inadéquate pour expliquer la résolution de Moniz d'opérer sur cette section. du cerveau. [72] Selon un modèle évolutif et hiérarchique de développement cérébral, il avait été émis l'hypothèse que ces régions associées à un développement plus récent, telles que le cerveau des mammifères et, plus particulièrement, les lobes frontaux, étaient responsables de fonctions cognitives plus complexes. [73] Cependant, cette formulation théorique a trouvé peu de soutien en laboratoire, car l'expérimentation du 19ème siècle n'a trouvé aucun changement significatif dans le comportement animal après l'ablation chirurgicale ou la stimulation électrique des lobes frontaux.[73] Cette image du soi-disant "lobe silencieux" a changé dans la période après la Première Guerre mondiale avec la production de rapports cliniques d'anciens militaires qui avaient subi un traumatisme cérébral. Le raffinement des techniques neurochirurgicales a également facilité les tentatives croissantes d'éliminer les tumeurs cérébrales, de traiter l'épilepsie focale chez l'homme et a conduit à une neurochirurgie expérimentale plus précise dans les études animales. [73] Des cas ont été signalés où les symptômes mentaux ont été atténués après l'ablation chirurgicale de tissus cérébraux malades ou endommagés. [52] L'accumulation d'études de cas médicaux sur les changements de comportement suite à des dommages aux lobes frontaux a conduit à la formulation du concept de Witzelsucht, qui désignait une affection neurologique caractérisée par une certaine hilarité et enfantillage chez les affligés. [73] L'image de la fonction du lobe frontal qui a émergé de ces études a été compliquée par l'observation que les déficits neurologiques associés aux dommages à un seul lobe pourraient être compensés si le lobe opposé restait intact. [73] En 1922, le neurologue italien Leonardo Bianchi a publié un rapport détaillé sur les résultats des lobectomies bilatérales chez les animaux qui soutenait l'affirmation selon laquelle les lobes frontaux faisaient à la fois partie intégrante de la fonction intellectuelle et que leur élimination conduisait à la désintégration de la personnalité du sujet. [74] Ce travail, bien qu'influent, n'était pas sans critiques en raison de lacunes dans la conception expérimentale. [73]

La première lobectomie bilatérale d'un sujet humain a été réalisée par le neurochirurgien américain Walter Dandy en 1930. [n 9] [75] Le neurologue Richard Brickner a rapporté ce cas en 1932, [76] racontant que le receveur, connu sous le nom de ", tout en éprouvant un émoussement de l'affect, n'avait subi aucune diminution apparente de la fonction intellectuelle et semblait, au moins pour l'observateur occasionnel, parfaitement normal. [77] Brickner a conclu de cette preuve que « les lobes frontaux ne sont pas des 'centres' pour l'intellect ». [78] Ces résultats cliniques ont été reproduits dans une opération similaire entreprise en 1934 par le neurochirurgien Roy Glenwood Spurling et rapporté par le neuropsychiatre Spafford Ackerly. [79] Au milieu des années 1930, l'intérêt pour la fonction des lobes frontaux a atteint son paroxysme. Cela s'est reflété dans le congrès neurologique de 1935 à Londres, qui a accueilli [79] dans le cadre de ses délibérations, [79] "un symposium remarquable . sur les fonctions des lobes frontaux". [80] Le panel était présidé par Henri Claude, un neuropsychiatre français, qui a commencé la séance en faisant le point sur l'état des recherches sur les lobes frontaux, et a conclu que « l'altération des lobes frontaux modifie profondément la personnalité des sujets ». [78] Ce symposium parallèle contenait de nombreux articles de neurologues, de neurochirurgiens et de psychologues, dont un de Brickner, qui a grandement impressionné Moniz, [77] qui a de nouveau détaillé le cas du "Patient A". [79] L'article de Fulton et Jacobsen, présenté dans une autre session de la conférence sur la physiologie expérimentale, était remarquable en reliant les études animales et humaines sur la fonction des lobes frontaux. [79] Ainsi, lors du Congrès de 1935, Moniz disposait d'un corpus croissant de recherches sur le rôle des lobes frontaux qui s'étendait bien au-delà des observations de Fulton et Jacobsen. [81]

Moniz n'était pas non plus le seul médecin dans les années 1930 à avoir envisagé des procédures ciblant directement les lobes frontaux. [82] Bien qu'en fin de compte, la chirurgie du cerveau ne soit pas considérée comme comportant trop de risques, des médecins et des neurologues tels que William Mayo, Thierry de Martel, Richard Brickner et Leo Davidoff avaient, avant 1935, envisagé la proposition. [n 10] [84] Inspiré par le développement par Julius Wagner-Jauregg de la thérapie antipaludique pour le traitement de la parésie générale des aliénés, le médecin français Maurice Ducosté rapporta en 1932 qu'il avait injecté 5 ml de sang antipaludique directement dans les lobes frontaux de plus de 100 patients parétiques à travers des trous percés dans le crâne. [82] Il a affirmé que les parétiques injectés montraient des signes d'"amélioration mentale et physique incontestable" et que les résultats pour les patients psychotiques subissant la procédure étaient également "encourageants". [85] L'injection expérimentale de sang paludéen fiévreux dans les lobes frontaux a également été reproduite au cours des années 1930 dans les travaux d'Ettore Mariotti et M. Sciutti en Italie et de Ferdière Coulloudon en France. [86] En Suisse, presque simultanément avec le début du programme de leucotomie de Moniz, le neurochirurgien François Ody avait enlevé tout le lobe frontal droit d'un patient schizophrène catatonique. [87] En Roumanie, la procédure d'Ody a été adoptée par Dimitri Bagdasar et Constantinesco travaillant à l'hôpital central de Bucarest. [83] Ody, qui a retardé la publication de ses propres résultats pendant plusieurs années, a ensuite réprimandé Moniz pour avoir prétendu avoir guéri des patients par leucotomie sans attendre de déterminer s'il y avait eu une "rémission durable". [88]

Modèle neurologique Modifier

Les fondements théoriques de la psychochirurgie de Moniz étaient en grande partie à la mesure de ceux du XIXe siècle qui avaient éclairé la décision de Burckhardt d'exciser la matière du cerveau de ses patients. Bien que dans ses écrits ultérieurs, Moniz ait fait référence à la fois à la théorie des neurones de Ramón y Cajal et au réflexe conditionné d'Ivan Pavlov [89], il a simplement interprété cette nouvelle recherche neurologique en termes de l'ancienne théorie psychologique de l'associationnisme. [61] Il différait considérablement de Burckhardt, cependant en ce qu'il ne pensait pas qu'il y avait de pathologie organique dans le cerveau des malades mentaux, mais plutôt que leurs voies neuronales étaient prises dans des circuits fixes et destructeurs menant à des « idées prédominantes et obsessionnelles ». . [n 11] [91] Comme l'écrivait Moniz en 1936 :

[Les] troubles mentaux doivent avoir . une relation avec la formation de groupements cellulo-connectifs, qui deviennent plus ou moins fixes. Les corps cellulaires pourront rester tout à fait normaux, leurs cylindres n'auront pas d'altérations anatomiques mais leurs liaisons multiples, très variables chez les gens normaux, pourront avoir des dispositions plus ou moins fixes, qui auront un rapport avec des idées persistantes et des délires dans certains états psychiques morbides. . [92]

Pour Moniz, « pour guérir ces patients », il fallait « détruire les arrangements plus ou moins figés de connexions cellulaires qui existent dans le cerveau, et notamment ceux qui sont liés aux lobes frontaux », [93] supprimant ainsi leurs circuits cérébraux pathologiques. Moniz croyait que le cerveau s'adapterait fonctionnellement à de telles blessures. [94] Contrairement à la position adoptée par Burckhardt, elle était infalsifiable selon les connaissances et la technologie de l'époque car l'absence d'une corrélation connue entre la pathologie cérébrale physique et la maladie mentale ne pouvait réfuter sa thèse. [95]

Premières leucotomies Modifier

Le 12 novembre 1935 à l'hôpital Santa Marta de Lisbonne, Moniz initia la première d'une série d'opérations sur le cerveau des malades mentaux. [97] Les premiers patients sélectionnés pour l'opération ont été fournis par le directeur médical de l'hôpital psychiatrique Miguel Bombarda de Lisbonne, José de Matos Sobral Cid. [98] Comme Moniz manquait de formation en neurochirurgie et que ses mains étaient paralysées par la goutte, la procédure a été réalisée sous anesthésie générale par Pedro Almeida Lima, qui avait auparavant aidé Moniz dans ses recherches sur l'angiographie cérébrale. [n 12] [100] L'intention était d'enlever certaines des longues fibres qui reliaient les lobes frontaux à d'autres centres cérébraux majeurs. [101] À cette fin, il a été décidé que Lima trépanerait dans le côté du crâne puis injecterait de l'éthanol dans la « substance blanche sous-corticale de la zone préfrontale » [96] afin de détruire les fibres de connexion, ou faisceaux d'association, [102] et créer ce que Moniz a appelé une « barrière frontale ». [n 13] [103] Une fois la première opération terminée, Moniz l'a considérée comme un succès et, observant que la dépression de la patiente avait été soulagée, il l'a déclarée « guérie » bien qu'elle ne soit jamais, en fait, sortie de l'hôpital psychiatrique. [104] Moniz et Lima ont persisté dans cette méthode d'injection d'alcool dans les lobes frontaux pour les sept patients suivants, mais, après avoir dû injecter des patients à de nombreuses reprises pour obtenir ce qu'ils considéraient comme un résultat favorable, ils ont modifié les moyens par lesquels ils sectionner les lobes frontaux. [104] Pour le neuvième patient, ils ont introduit un instrument chirurgical appelé leucotome, il s'agissait d'une canule de 11 centimètres (4,3 pouces) de longueur et de 2 centimètres (0,79 pouce) de diamètre. Il avait une boucle de fil rétractable à une extrémité qui, lorsqu'elle était tournée, produisait une lésion circulaire de 1 centimètre (0,39 in) de diamètre dans la substance blanche du lobe frontal. [105] En règle générale, six lésions étaient incisées dans chaque lobe, mais s'ils n'étaient pas satisfaits des résultats, Lima pouvait effectuer plusieurs procédures, chacune produisant plusieurs lésions dans les lobes frontaux gauche et droit. [104]

À la fin de cette première série de leucotomies en février 1936, Moniz et Lima avaient opéré vingt patients avec un délai moyen d'une semaine entre chaque procédure. Moniz publia ses conclusions en toute hâte en mars de la même année. [106] Les patients étaient âgés de 27 à 62 ans, douze étaient des femmes et huit étaient des hommes. Neuf des patients ont été diagnostiqués comme souffrant de dépression, six de schizophrénie, deux de trouble panique et un de manie, de catatonie et de maniaco-dépression, les symptômes les plus importants étant l'anxiété et l'agitation. La durée de la maladie avant l'intervention variait d'aussi peu que quatre semaines à jusqu'à 22 ans, bien que tous sauf quatre aient été malades pendant au moins un an. [107] Les patients étaient normalement opérés le jour de leur arrivée à la clinique de Moniz et retournaient dans les dix jours à l'hôpital psychiatrique Miguel Bombarda. [108] Une évaluation de suivi postopératoire superficielle a eu lieu entre une et dix semaines après la chirurgie. [109] Des complications ont été observées chez chacun des patients atteints de leucotomie et comprenaient : « augmentation de la température, vomissements, incontinence vésicale et intestinale, diarrhée et affections oculaires telles que ptosis et nystagmus, ainsi que des effets psychologiques tels que l'apathie, l'akinésie, la léthargie, timing et désorientation locale, cleptomanie et sensations anormales de faim". [110] Moniz a affirmé que ces effets étaient transitoires et, [110] selon son évaluation publiée, le résultat pour ces vingt premiers patients était que 35%, ou sept cas, se sont améliorés de manière significative, 35% ont été quelque peu améliorés et les 30 autres % (six cas) étaient inchangés. Il n'y a eu aucun décès et il n'a pas considéré qu'un patient se soit détérioré après la leucotomie. [111]

Moniz a rapidement diffusé ses résultats à travers des articles dans la presse médicale et une monographie en 1936. [103] Au départ, cependant, la communauté médicale est apparue hostile à la nouvelle procédure. [112] Le 26 juillet 1936, un de ses assistants, Diogo Furtado, fait une présentation à la réunion parisienne de la Société Médico-Psychologique sur les résultats de la deuxième cohorte de patients leucotomisés par Lima. [103] Sobral Cid, qui avait fourni à Moniz la première série de patients pour leucotomie de son propre hôpital à Lisbonne, a assisté à la réunion et a dénoncé la technique, [112] déclarant que les patients qui avaient été renvoyés à ses soins après l'opération étaient "diminués" et avaient subi une "dégradation de la personnalité". [113] Il a également affirmé que les changements que Moniz a observés chez les patients étaient plus correctement attribués au choc et au traumatisme cérébral, et il a ridiculisé l'architecture théorique que Moniz avait construite pour soutenir la nouvelle procédure en tant que "mythologie cérébrale". [113] Lors de la même réunion, le psychiatre parisien, Paul Courbon, a déclaré qu'il ne pouvait pas cautionner une technique chirurgicale qui s'appuierait uniquement sur des considérations théoriques plutôt que sur des observations cliniques. [114] Il a également estimé que la mutilation d'un organe ne pouvait pas améliorer sa fonction et que les blessures cérébrales causées par la leucotomie risquaient le développement ultérieur de méningite, d'épilepsie et d'abcès cérébraux. [115] Néanmoins, le traitement chirurgical réussi de Moniz chez 14 patients sur 20 a conduit à l'adoption rapide de la procédure à titre expérimental par des cliniciens individuels dans des pays tels que le Brésil, Cuba, l'Italie, la Roumanie et les États-Unis au cours des années 1930. [116]

Leucotomie italienne Modifier

Pendant le reste des années 1930, le nombre de leucotomies pratiquées dans la plupart des pays où la technique a été adoptée est resté assez faible. En Grande-Bretagne, qui fut plus tard un centre majeur de leucotomie, [n 14] seulement six opérations avaient été réalisées avant 1942. [119] En général, les médecins qui tentaient la procédure adoptaient une approche prudente et peu de patients étaient leucotomisés avant les années 1940. Les neuropsychiatres italiens, qui étaient généralement des adopteurs précoces et enthousiastes de la leucotomie, ont été exceptionnels en évitant un cours aussi graduel. [55]

La leucotomie a été signalée pour la première fois dans la presse médicale italienne en 1936 et Moniz a publié un article en italien sur la technique l'année suivante. [55] En 1937, il a été invité en Italie pour démontrer la procédure et pendant une période de deux semaines en juin de la même année, il a visité des centres médicaux à Trieste, Ferrara et un près de Turin - l'hôpital Racconigi - où il a instruit son collègues neuropsychiatriques italiens sur leucotomie et a également supervisé plusieurs opérations. [55] La leucotomie a été présentée lors de deux conférences psychiatriques italiennes en 1937 et au cours des deux années suivantes, une vingtaine d'articles médicaux sur la psychochirurgie de Moniz ont été publiés par des cliniciens italiens basés dans des institutions médicales situées à Racconigi, Trieste, Naples, Gênes, Milan, Pise, Catane et Rovigo. [55] Le principal centre de leucotomie en Italie était l'hôpital Racconigi, où le neurochirurgien expérimenté Ludvig Puusepp a fourni un guide. [n 15] [55] Sous la direction médicale d'Emilio Rizzatti, le personnel médical de cet hôpital avait effectué au moins 200 leucotomies en 1939. [121] Les rapports de cliniciens basés dans d'autres institutions italiennes détaillaient un nombre significativement plus petit d'opérations de leucotomie. [55]

Des modifications expérimentales de l'opération de Moniz ont été introduites avec peu de retard par les médecins italiens. [122] Plus particulièrement, en 1937, Amarro Fiamberti, le directeur médical d'une institution psychiatrique à Varese, [123] a d'abord conçu la procédure transorbitale par laquelle les lobes frontaux étaient accessibles par les orbites. [122] La méthode de Fiamberti consistait à percer la fine couche d'os orbitaire au sommet de la cavité, puis à injecter de l'alcool ou du formol dans la substance blanche des lobes frontaux à travers cette ouverture. [124] En utilisant cette méthode, en substituant parfois un leucotome à une aiguille hypodermique, on estime qu'il a leucotomisé environ 100 patients dans la période précédant le déclenchement de la Seconde Guerre mondiale. [123] L'innovation de Fiamberti de la méthode de Moniz s'avérera plus tard inspirante pour le développement de Walter Freeman de la lobotomie transorbitale. [124]

Leucotomie américaine Modifier

La première leucotomie préfrontale aux États-Unis a été réalisée au George Washington University Hospital le 14 septembre 1936 par le neurologue Walter Freeman et son ami et collègue, le neurochirurgien James W. Watts. [125] Freeman avait rencontré Moniz pour la première fois au Deuxième Congrès international de neurologie organisé à Londres en 1935, où il avait présenté une exposition d'affiches du travail du neurologue portugais sur l'angiographie cérébrale. [126] Occupant par hasard un stand à côté de Moniz, Freeman, ravi de leur rencontre fortuite, a formé une impression très favorable de Moniz, remarquant plus tard son « pur génie ». [126] Selon Freeman, s'ils ne s'étaient pas rencontrés en personne, il est hautement improbable qu'il se serait aventuré dans le domaine de la psychochirurgie du lobe frontal. [127] L'intérêt de Freeman pour la psychiatrie était le prolongement naturel de sa nomination en 1924 en tant que directeur médical des laboratoires de recherche du Government Hospital for the Insane à Washington, connu familièrement sous le nom de St Elizabeth. [128] Un chercheur ambitieux et prodigieux, Freeman, qui a favorisé un modèle organique de causalité de la maladie mentale, a passé les années suivantes de manière exhaustive, mais finalement infructueuse, à rechercher une base neuropathologique de la folie. [129] Par hasard sur une communication préliminaire de Moniz sur la leucotomie au printemps 1936, Freeman a initié une correspondance en mai de cette année. Écrivant qu'il avait envisagé une chirurgie cérébrale psychiatrique auparavant, il a informé Moniz que, "ayant votre autorité, je m'attends à aller de l'avant". [130] Moniz, en retour, a promis de lui envoyer une copie de sa prochaine monographie sur la leucotomie et l'a exhorté à acheter un leucotome d'un fournisseur français. [131]

Dès réception de la monographie de Moniz, Freeman l'a examinée de manière anonyme pour le Archives de Neurologie et Psychiatrie. [131] Louant le texte comme étant celui dont "l'importance peut difficilement être surestimée", [131] il a résumé la justification de Moniz pour la procédure comme étant basée sur le fait que bien qu'aucune anomalie physique des corps cellulaires cérébraux n'était observable chez les malades mentaux, leur les interconnexions peuvent abriter une "fixation de certains modèles de relations entre divers groupes de cellules" et que cela a entraîné des obsessions, des délires et une morbidité mentale. [132] Tout en reconnaissant que la thèse de Moniz était inadéquate, pour Freeman, elle avait l'avantage de contourner la recherche de tissus cérébraux malades chez les malades mentaux en suggérant plutôt que le problème était un problème fonctionnel du câblage interne du cerveau où le soulagement pourrait être obtenu en couper les circuits mentaux problématiques. [132]

En 1937, Freeman et Watts adaptèrent la procédure chirurgicale de Lima et Moniz et créèrent le Technique Freeman-Watts, également connu sous le nom de Lobotomie préfrontale standard de Freeman-Watts, qu'ils appelaient la "méthode de précision". [133]

Lobotomie transorbitaire Modifier

La lobotomie préfrontale de Freeman-Watts nécessitait toujours de percer des trous dans le crâne, de sorte que la chirurgie a dû être effectuée dans une salle d'opération par des neurochirurgiens qualifiés. Walter Freeman pensait que cette chirurgie ne serait pas disponible pour ceux qui en avaient le plus besoin : les patients des hôpitaux psychiatriques publics qui n'avaient pas de salles d'opération, de chirurgiens ou d'anesthésie et des budgets limités. Freeman voulait simplifier la procédure afin qu'elle puisse être effectuée par des psychiatres dans des hôpitaux psychiatriques. [134]

Inspiré par les travaux du psychiatre italien Amarro Fiamberti, Freeman a conçu à un moment donné d'approcher les lobes frontaux par les orbites plutôt que par des trous percés dans le crâne. En 1945, il a pris un pic à glace [n 16] de sa propre cuisine et a commencé à tester l'idée sur des pamplemousses [n 17] et des cadavres.Cette nouvelle lobotomie « transorbitaire » impliquait de soulever la paupière supérieure et de placer la pointe d'un instrument chirurgical fin (souvent appelé orbitoclaste ou leucotome, bien que très différent du leucotome à boucle métallique décrit ci-dessus) sous la paupière et contre le haut de l'orbite. Un maillet a été utilisé pour conduire l'orbitoclaste à travers la fine couche d'os et dans le cerveau le long du plan de l'arête du nez, à environ 15 degrés vers la fissure interhémisphérique. L'orbitoclaste a été malté à 5 centimètres (2 pouces) dans le lobe frontal, puis pivoté de 40 degrés au niveau de la perforation de l'orbite de sorte que la pointe soit coupée vers le côté opposé de la tête (vers le nez). L'instrument a été remis en position neutre et a envoyé 2 centimètres supplémentaires (4 ⁄ 5 in) dans le cerveau, avant d'être pivoté d'environ 28 degrés de chaque côté, pour couper vers l'extérieur et à nouveau vers l'intérieur. (Dans une variation plus radicale à la fin de la dernière coupe décrite, la crosse de l'orbitoclaste a été forcée vers le haut de sorte que l'outil a coupé verticalement le long du côté du cortex de la fissure interhémisphérique la « Deep Frontal Cut ».) Toutes les coupes ont été conçues pour sectionner la matière fibreuse blanche reliant le tissu cortical du cortex préfrontal au thalamus. Le leucotome a ensuite été retiré et la procédure répétée de l'autre côté. [ citation requise ]

Freeman a réalisé la première lobotomie transorbitaire sur un patient vivant en 1946. Sa simplicité suggérait la possibilité de l'effectuer dans des hôpitaux psychiatriques dépourvus des installations chirurgicales requises pour la procédure plus ancienne et plus complexe. (Freeman a suggéré que, lorsque l'anesthésie conventionnelle n'était pas disponible, une thérapie par électrochocs soit utilisée pour rendre le patient inconscient.) en une simple procédure de "bureau". [137] Entre 1940 et 1944, 684 lobotomies ont été pratiquées aux États-Unis. Cependant, en raison de la fervente promotion de la technique par Freeman et Watts, ces chiffres ont fortement augmenté vers la fin de la décennie. En 1949, l'année de pointe pour les lobotomies aux États-Unis, 5 074 procédures ont été entreprises et, en 1951, plus de 18 608 personnes avaient été lobotomisées aux États-Unis. [138]

Aux États-Unis, environ 40 000 personnes ont été lobotomisées. En Angleterre, 17 000 lobotomies ont été effectuées, et les trois pays nordiques que sont le Danemark, la Norvège et la Suède avaient un chiffre combiné d'environ 9 300 lobotomies. [139] Les hôpitaux scandinaves ont lobotomisé 2,5 fois plus de personnes par habitant que les hôpitaux des États-Unis. [140] La Suède a lobotomisé au moins 4 500 personnes entre 1944 et 1966, principalement des femmes. Ce chiffre comprend les jeunes enfants. [141] En Norvège, il y avait 2 005 lobotomies connues. [142] Au Danemark, il y avait 4 500 lobotomies connues. [143] Au Japon, la majorité des lobotomies ont été pratiquées sur des enfants ayant des problèmes de comportement. L'Union soviétique a interdit la pratique en 1950 pour des raisons morales. [ citation requise ] En Allemagne, il n'a été joué que quelques fois. [144] À la fin des années 1970, la pratique de la lobotomie avait généralement cessé, bien qu'elle se soit poursuivie jusque dans les années 1980 en France. [145]

Dès 1944, un auteur de la Journal des maladies nerveuses et mentales a fait remarquer : « L'histoire de la lobotomie préfrontale a été brève et orageuse. Son cours a été parsemé à la fois d'une opposition violente et d'une acceptation servile et inconditionnelle. À partir de 1947, le psychiatre suédois Snorre Wohlfahrt a évalué les premiers essais, déclarant qu'il est « distinemment dangereux de leucotomiser les schizophrènes » et que la lobotomie était « encore trop imparfaite pour nous permettre, avec son aide, de lancer une offensive générale contre les cas chroniques de troubles mentaux. ", déclarant en outre que " la psychochirurgie n'a pas encore réussi à découvrir ses indications et contre-indications précises et les méthodes doivent malheureusement encore être considérées comme plutôt grossières et dangereuses à bien des égards. " [146] En 1948 Norbert Wiener, auteur de Cybernétique : ou le contrôle et la communication dans l'animal et la machine, a déclaré : « [L]a lobotomie préfrontale . a récemment eu une certaine vogue, probablement liée au fait qu'elle facilite la prise en charge de nombreux patients. Permettez-moi de remarquer au passage que les tuer facilite encore leur prise en charge. " [147]

Les inquiétudes concernant la lobotomie n'ont cessé de croître. Le psychiatre soviétique Vasily Gilyarovsky a critiqué la lobotomie et l'hypothèse de localisation mécaniste du cerveau utilisée pour effectuer la lobotomie :

On suppose que la section de substance blanche des lobes frontaux altère leur connexion avec le thalamus et élimine la possibilité d'en recevoir des stimuli qui conduisent à l'irritation et, dans l'ensemble, perturbent les fonctions mentales. Cette explication est mécaniste et remonte au localisationnisme étroit caractéristique des psychiatres d'Amérique, d'où nous a été importée la leucotomie. [148]

L'URSS a officiellement interdit la procédure en 1950 [149] à l'initiative de Gilyarovsky. [150] Les médecins de l'Union soviétique ont conclu que la procédure était « contraire aux principes d'humanité » et « « par la lobotomie », une personne aliénée est transformée en idiot ». [151] Dans les années 1970, de nombreux pays avaient interdit la procédure, de même que plusieurs États américains. [152]

En 1977, le Congrès américain, sous la présidence de Jimmy Carter, a créé le Comité national pour la protection des sujets humains de la recherche biomédicale et comportementale pour enquêter sur les allégations selon lesquelles la psychochirurgie - y compris les techniques de lobotomie - a été utilisée pour contrôler les minorités et restreindre les droits individuels. Le comité a conclu qu'une psychochirurgie extrêmement limitée et correctement effectuée pourrait avoir des effets positifs. [153]

Au début du 21e siècle, des appels ont été lancés pour que la Fondation Nobel annule le prix qu'elle a décerné à Moniz pour le développement de la lobotomie, une décision qui a été qualifiée d'erreur de jugement stupéfiante à l'époque et dont la psychiatrie pourrait encore avoir besoin d'apprendre, mais la Fondation a refusé d'agir et a continué d'héberger un article défendant les résultats de la procédure. [154] [5]

    , sœur du président John F. Kennedy, a subi une lobotomie en 1941 qui l'a laissée inapte et institutionnalisée pour le reste de sa vie. [155] a écrit un mémoire de sa découverte tardive qu'il avait été lobotomisé en 1960 à l'âge de 12 ans. [156]
  • L'auteur et poète néo-zélandais Janet Frame a reçu un prix littéraire en 1951 la veille d'une lobotomie programmée, et elle n'a jamais été réalisée. [157] , violoniste et compositeur polonais, a reçu un diagnostic de schizophrénie et est décédé à l'âge de 26 ans des suites d'une lobotomie. [158]
  • La peintre moderniste suédoise Sigrid Hjertén est décédée des suites d'une lobotomie en 1948. [159]
  • La sœur aînée du dramaturge américain Tennessee Williams, Rose, a subi une lobotomie qui l'a laissée inapte à vie. L'épisode aurait inspiré des personnages et des motifs dans certaines de ses œuvres. [160]
  • On dit souvent que lorsqu'une tige de fer a été accidentellement enfoncée dans la tête de Phineas Gage en 1848, cela a constitué une « lobotomie accidentelle », ou que cet événement a en quelque sorte inspiré le développement de la lobotomie chirurgicale un siècle plus tard. Selon la seule étude de la longueur d'un livre de Gage, une enquête minutieuse ne révèle aucun lien de ce type. [161]
  • En 2011, Daniel Nijensohn, neurochirurgien d'origine argentine à Yale, a examiné les radiographies d'Eva Perón et a conclu qu'elle avait subi une lobotomie pour le traitement de la douleur et de l'anxiété au cours des derniers mois de sa vie. [162]

Les lobotomies ont été présentées dans plusieurs présentations littéraires et cinématographiques qui reflétaient à la fois l'attitude de la société envers la procédure et, parfois, la modifiaient. Les écrivains et les cinéastes ont joué un rôle central dans le retour de l'opinion publique contre la procédure. [5]


Pourquoi fermer les yeux (et désactiver d'autres sens) peut vous aider à vous souvenir

Lorsque vous essayez de vous souvenir de quelque chose, il y a de fortes chances que vous le regardiez en l'air ou que vous fermiez les yeux. Cela peut sembler arbitraire, mais comme l'explique le chercheur en sciences cognitives Art Markman dans Psychology Today, couper votre vision est en fait très utile lorsque vous essayez de déterrer des informations dans votre cerveau.

Alors pourquoi est-ce le cas ? Votre cerveau traite une tonne d'informations et la vision est un apport énorme. Déchiffrer tout ce que vous voyez peut prendre beaucoup de puissance de traitement de votre esprit et donc des informations moins complexes, comme le ciel ou le plafond ou l'ombre de vos paupières, signifie qu'elles sont plus disponibles pour la réflexion. Ceci est particulièrement important lorsque vous essayez de vous rappeler des souvenirs visuels. Markman explique :

[S]i vous joignez vos mains derrière votre tête, la majeure partie de la zone occupée par vos mains reflète la quantité de cerveau qui est consacrée à donner un sens aux informations qui entrent par vos yeux. Ces mêmes zones du cerveau sont également impliquées dans les souvenirs visuels de choses que vous avez vues dans le passé. Il est logique que le cerveau réutilise les zones consacrées à la vision pour aider la mémoire à obtenir des informations visuelles.

La même idée s'applique également aux autres sens. Si vous essayez de vous souvenir d'un son ou de la voix de quelqu'un, des bruits complexes peuvent rendre le processus plus difficile. C'est pourquoi, par exemple, vous pouvez avoir du mal à écrire lorsque les autres parlent. Si vous entendez une voix dans votre tête pendant que vous tapez une phrase, vous aurez du mal à l'entendre lorsque votre cerveau analyse déjà le discours existant autour de vous. Fondamentalement, lorsque vous avez besoin de vous souvenir de quelque chose, isolez le sens pertinent. Cela vous aidera à vous concentrer et à trouver les informations que vous recherchez.

Vous pouvez suivre Adam Dachis, l'auteur de cet article, sur Twitter , Google+ et Facebook . Twitter est également le meilleur moyen de le contacter.


Le &lsquoBrain Training&rsquo fonctionne-t-il réellement ?

S'il y avait une application sur votre téléphone qui pourrait améliorer votre mémoire, l'essayeriez-vous ? Qui voudrait une meilleure mémoire ? Après tout, nos souvenirs sont fragiles et peuvent être altérés par des maladies, des blessures, des problèmes de santé mentale et, de manière plus aiguë pour nous tous, le vieillissement.

Une industrie de plusieurs milliards de dollars pour l'entraînement cérébral capitalise déjà sur ce besoin perçu en fournissant une abondance d'applications pour téléphones et tablettes qui offrent des défis mentaux facilement accessibles et relativement peu coûteux.

Nous trois, et bien d'autres, avons prouvé que des exercices soigneusement formulés peuvent améliorer les compétences cognitives de base et même conduire à de meilleurs scores aux tests de QI standard. Dans le même temps, l'entraînement cérébral est devenu une entreprise profondément controversée. Certains chercheurs, dont l'un d'entre nous, ont exprimé de profondes réserves sur sa fiabilité et sa validité. Il y a même eu une déclaration de consensus publiée remettant en cause l'entraînement cérébral, qui, à son tour, a entraîné une contre-réponse de la part des chercheurs qui l'ont défendu.

Dans le cas de l'entraînement de la mémoire, par exemple, les résultats des études ont été incohérents, et même les approches méta-analytiques qui combinent les données entre les études aboutissent à des conclusions différentes. Sans aucun doute, il existe une énorme quantité d'hyperboles entourant le domaine, de nombreuses entreprises exagérant les avantages potentiels de l'utilisation de leurs applications.

Les principales controverses portent sur la mesure dans laquelle la pratique de ces compétences entraîne des avantages réels qui ont des conséquences sur votre vie quotidienne. Se souvenir d'un nombre croissant de chiffres vous aide-t-il à vous souvenir de prendre vos médicaments, à mieux réussir un examen scolaire, à vous souvenir du nom de la personne que vous avez rencontrée hier ou même à faire de meilleurs choix de vie ?

Certains scientifiques se demandent si cela est même possible. D'autres soutiennent que nous devrions considérer le cerveau comme nos muscles, qui peuvent être exercés et tonifiés. Dans cette analogie, les défis quotidiens, même exigeants tels que la lecture d'un article de journal détaillé ou la résolution d'un problème d'algèbre, pourraient ne pas être suffisamment difficiles pour fournir un entraînement adéquat pour le cerveau.

Tout comme les athlètes s'engagent dans la force et le conditionnement en exerçant à plusieurs reprises certains groupes musculaires et leurs systèmes respiratoire et cardiovasculaire, la répétition ciblée d'exercices de mémoire peut être la clé pour renforcer et conditionner nos processus de mémoire. Les applications d'entraînement de la mémoire nécessitent le suivi d'un grand nombre d'objets pendant que l'on est distrait par une tâche secondaire (comme faire des calculs mentaux ou naviguer dans le paysage d'un jeu). Ce degré de difficulté et de répétition, cependant, peut être rare dans la vie quotidienne, ce qui est le vide que les applications de mémoire visent à combler.

Si l'entraînement cérébral fonctionne, le domaine est très prometteur pour aider les personnes atteintes de déficiences cognitives et pour aider les personnes qui se remettent d'un cancer ou peut-être même de COVID-19. Une certaine affirmation du potentiel de l'entraînement cognitif pourrait être observée dans l'approbation récente de la FDA d'un jeu d'entraînement cérébral pour traiter le TDAH.

Les critiques soutiennent cependant que, bien que le concept soit attrayant, les preuves globales ne suffisent pas à démontrer que les processus cérébraux fondamentaux peuvent être réellement améliorés. Malgré ce que de nombreuses applications et entreprises de formation cérébrale diront à leurs clients, les scientifiques n'ont pas découvert les ingrédients clés qui rendent une intervention efficace, ni les recettes qui répondraient le mieux aux divers besoins de ceux qui recherchent de l'aide. De plus, la plupart des applications disponibles pour les consommateurs n'ont pas du tout subi de validation scientifique.

Alors, comment concilier les preuves mitigées sur le terrain et en même temps couper à travers le battage médiatique ? Nous suggérons qu'une partie de la confusion peut résulter du fait que peu de considération a été accordée à qui bénéficierait le plus des applications d'entraînement cérébral soutenues par des études de recherche. Sera-ce seulement ceux qui ont une forme de trouble de la mémoire, ou cela peut-il également aider ceux qui souhaitent s'améliorer même s'ils fonctionnent déjà relativement bien ?

Bien que le jury soit encore absent, il existe des preuves que la formation à court terme de la mémoire de travail peut apporter des avantages à des individus relativement performants, tels que les étudiants. Pour l'entraînement visuel, il existe des suggestions dont même les athlètes d'élite peuvent en bénéficier. Pourtant, que l'on ait ou non un trouble de la mémoire, il est probable que, comme un régime ou un exercice, l'entraînement cérébral ne profite pas à tout le monde de la même manière.

Nous suggérons qu'une grande partie du débat, et le manque de consensus, tourne autour des mauvaises questions scientifiques posées. Plus précisément, le paradigme actuel est dominé par la santé de la population et les méthodes de recherche consacrées aux moyennes de groupe, alors que ce que la plupart d'entre nous veulent savoir, c'est si quelque chose nous convient.

Pour illustrer le problème, considérons la situation hypothétique dans laquelle une personne sur 10 tire un avantage considérable d'une application d'entraînement de la mémoire particulière. Dans le modèle de santé de la population, les résultats sont calculés en moyenne pour toutes les personnes qui ont bénéficié de l'intervention, et ainsi le bénéfice profond ressenti par quelques-uns sera effacé par l'absence d'effet sur le plus grand nombre.

Répétez cette expérience sur un certain nombre d'applications d'entraînement de la mémoire différentes, chacune fournissant potentiellement des effets positifs pour différents sous-groupes, et la collection d'avantages ressentis par certaines personnes sera masquée par les méthodes de recherche inappropriées appliquées. Le modèle de santé de la population, bien que très approprié lorsque ses hypothèses sont confirmées, ne s'applique tout simplement pas bien dans une population diversifiée où différentes personnes peuvent interagir avec l'application de formation de différentes manières et donc présenter une gamme d'avantages.

Pour surmonter ces limitations, notre équipe s'appuie actuellement sur la puissance de la science citoyenne. Semblable à une étude à grande échelle au Royaume-Uni (Brain Test Britain, promu par l'Université de Cambridge et la BBC), nous cherchons à recruter des milliers de participants pour nous aider à découvrir les mérites potentiels de l'entraînement de la mémoire. Mais contrairement à Brain Test Britain, une simple question de qu'il s'agisse l'entraînement cérébral fonctionne, nous cherchons à engager la population américaine dans un nouveau défi à tester pourquoi et pour qui l'entraînement cérébral fonctionne, et dans quelles conditions.

Pour atteindre notre objectif, nous avons lancé une nouvelle étude financée par les National Institutes of Health qui vise à recruter 30 000 volontaires pour participer à une étude d'entraînement de la mémoire qui compare plusieurs approches pour entraîner la mémoire de travail. L'étude utilisera un ensemble commun de mesures d'évaluation pour évaluer les gains potentiels de formation, et elle se concentrera sur les différences individuelles. Toute personne âgée de plus de 18 ans peut rejoindre notre étude et contribuer à générer les données nécessaires pour changer le débat et aller de l'avant avec un nouveau paradigme d'entraînement cérébral de précision. Si vous souhaitez participer à notre essai, rendez-vous sur le site d'inscription de l'Université de Californie, Riverside.

Ce n'est qu'en incluant un très grand nombre de participants et en évaluant comment les différentes approches de formation et leurs résultats se rapportent à des individus particuliers que nous pourrons résoudre ces controverses une fois pour toutes. Il se peut que la plupart des avantages se retrouvent chez ceux qui souffrent d'une maladie qui altère leurs capacités cognitives, ou nous pouvons constater que les personnes hautement fonctionnelles peuvent bénéficier d'un entraînement.

Nous tenterons de résoudre cette énigme en appliquant des modèles statistiques pour examiner comment les réponses de base aux questionnaires et aux évaluations prédisent les gains que chaque participant peut retirer des différents types de formation. En cas de succès, l'étude nous aidera à déterminer quels facteurs peuvent être les plus révélateurs de la probabilité qu'un individu donné bénéficie de l'entraînement de la mémoire, ainsi que quelle forme d'entraînement peut être la meilleure pour cette personne.

Notre objectif est d'éviter une approche unique. Au lieu de cela, nous voulons faire avancer un nouveau modèle basé sur la prémisse que les gens sont divers dans leurs forces cognitives et leurs besoins, et ont donc besoin du type d'interventions qui les servirait le mieux.


Questions et intérêts de recherche

Comment voit-on ? Qu'en est-il de la structure en constante évolution de la lumière frappant nos yeux mobiles qui nous permet de capter des informations sur l'environnement qui nous entoure ? Qu'en est-il de notre cerveau et son activité neuronale nous permet de voir tant de choses et sans effort ? Comment pouvons-nous contrôler nos yeux et notre corps pour rechercher des informations et agir dans le monde physique ? Ce ne sont là que quelques-unes des grandes questions qui poussent les chercheurs, dont moi-même, à étudier la vision. Nous trouvons que c'est un sujet fascinant car il semble à la fois si accessible et pourtant si insaisissable. La vision est immédiate et évidente, à tel point qu'elle semble ne nécessiter aucune explication. Pourtant, si nous pensons à la façon dont un robot imaginaire pourrait simuler un humain ou à la façon dont les circuits neuronaux pourraient médiatiser la perception visuelle consciente, nous réalisons à quel point le fossé est profond entre ce que nous savons sur le cerveau et les faits quotidiens sur la perception visuelle.

Les scientifiques ont du mal à s'attaquer directement à des questions aussi vastes et peu l'ont fait avec succès.La plupart d'entre nous trouvent plus fructueux d'étudier des domaines particuliers dans l'espoir de mieux apercevoir des réponses partielles à des questions aussi vastes. Nous apprenons de la neuroanatomie que le territoire du cerveau consacré à la vision est immense, environ 50 % chez les primates non humains et presque autant chez les humains. Cela suggère une énormité de la vision qui doit encore être pleinement reconnue. En termes de puissance cérébrale pure, la vision est comparable à l'ensemble du reste du cerveau réuni. En tant que tel, nous devons réaliser que la vision n'est pas simplement une chose, qu'il existe probablement de nombreuses fonctions visuelles. Nous commençons tout juste à comprendre que voir et se déplacer dans le monde nécessite de nombreux processus inconnus que nous devons encore discerner. Certaines de ces fonctions deviennent évidentes avec des lésions cérébrales, par exemple, lorsqu'un individu ne peut pas voir le mouvement ou ne peut pas reconnaître les visages.

Ma propre stratégie de recherche a été d'isoler une variété de fonctions visuelles et de les étudier en détail. Pour ce faire, je me suis fortement appuyé sur la discipline de la psychophysique visuelle qui constitue un ensemble étonnamment puissant de concepts et de procédures. Au fil des ans, j'ai eu le privilège de travailler avec des collègues et des étudiants exceptionnels. De temps en temps, nous avons eu la chance de faire une véritable nouvelle découverte ou de mieux comprendre comment les pièces du puzzle visuel s'emboîtent. Récemment, j'ai travaillé sur la représentation des surfaces visuelles, le déploiement de l'attention visuelle et le rôle de l'attention dans l'initiation des mouvements oculaires. Plus récemment, je me suis intéressé à la perception et à la reconnaissance des visages. Je m'intéresse également à l'utilisation de tests psychophysiques visuels pour évaluer les troubles neurologiques et psychiatriques. À l'avenir, j'espère que l'étude des visages nous aidera à comprendre la perception sociale et la cognition, en éclairant la façon dont nous représentons les autres humains à un niveau non verbal.


Structurer en tête

La caractéristique anatomique la plus évidente de notre cerveau est la surface ondulante du cerveau - les fentes profondes sont appelées sillons et ses plis sont des gyri. Le cerveau est la plus grande partie de notre cerveau et est en grande partie composé des deux hémisphères cérébraux. Il s'agit de la structure cérébrale la plus récente sur le plan de l'évolution, traitant d'activités cérébrales cognitives plus complexes.

On dit souvent que l'hémisphère droit est plus créatif et émotionnel et que le gauche s'occupe de logique, mais la réalité est plus complexe. Néanmoins, les côtés ont certaines spécialisations, la gauche traitant de la parole et du langage, la droite de la conscience spatiale et corporelle.

Voir notre Graphique interactif pour en savoir plus sur la structure du cerveau

D'autres divisions anatomiques des hémisphères cérébraux sont le lobe occipital à l'arrière, consacré à la vision, et le lobe pariétal au-dessus, traitant du mouvement, de la position, de l'orientation et du calcul.

Derrière les oreilles et les tempes se trouvent les lobes temporaux, traitant de la compréhension du son et de la parole et de certains aspects de la mémoire. Et au premier plan se trouvent les lobes frontaux et préfrontaux, souvent considérés comme les régions les plus développées et les plus «humaines», traitant de la pensée, de la prise de décision, de la planification, de la conceptualisation, du contrôle de l'attention et de la mémoire de travail les plus complexes. Ils traitent également des émotions sociales complexes telles que le regret, la moralité et l'empathie.

Une autre façon de classer les régions est en cortex sensoriel et cortex moteur, contrôlant respectivement les informations entrantes et le comportement sortant.

Sous les hémisphères cérébraux, mais toujours désigné comme faisant partie du cerveau antérieur, se trouve le cortex cingulaire, qui gère le comportement directeur et la douleur. Et en dessous se trouve le corps calleux, qui relie les deux côtés du cerveau. D'autres zones importantes du cerveau antérieur sont les noyaux gris centraux, responsables du mouvement, de la motivation et de la récompense.


Un domaine en plein essor

Pour illustrer à quel point la neuroesthétique a récemment gagné du terrain en tant que domaine d'enquête sérieux, considérons Ina Kodra '18 : en deuxième année, Kodra a tenté de déclarer une concentration spéciale en neuroesthétique, mais sa demande a été rejetée. À l'époque, un tel plan d'étude comportait trop d'éléments disparates pour être à proprement parler une concentration. Aujourd'hui, quelques années plus tard, des étudiants comme Kodra sont invités à repousser les limites entre l'art et la science.

Si la neuroesthétique prend son essor dans la communauté scientifique, elle a plus de mal à s'imposer dans le monde de l'art. Une exception majeure à cette tendance est Tedi E. Asher, neuroscientifique en résidence au Peabody Essex Museum de Salem, MA. Son poste de deux ans est financé par une subvention de la Barr Foundation, une organisation à but non lucratif basée à Boston qui soutient la recherche dans divers domaines, y compris les arts.

"L'objectif principal de l'initiative des neurosciences au PEM est essentiellement d'améliorer l'engagement des visiteurs", a déclaré Asher. « Donc, pour créer des expériences au sein des galeries qui sont plus significatives pour nos visiteurs et les impliquer davantage dans l'absorption des œuvres d'art. » Six mois après le début de son nouveau rôle, Asher a déclaré qu'il était trop tôt pour dire qu'elle avait encore fait des découvertes, mais elle s'est efforcée de trouver des moyens d'appliquer la littérature neuroscientifique existante à l'environnement muséal.

Un concept qu'Asher a exploré est la notion de saillance. Comme elle l'a expliqué : « Lorsqu'un élément d'une scène ou d'une image ressort de l'arrière-plan, il peut donc être d'une couleur différente, d'une forme différente, il peut se déplacer dans une direction différente du reste de l'image. scène, on dit que ces éléments ont de l'importance. S'appuyant sur cette idée, Asher travaille à la création de « cartes de saillance », qui illustrent les parties d'une image les plus susceptibles d'attirer l'attention. En comprenant comment les visiteurs du musée regardent réellement l'art, Asher espère rendre les pièces de PEM plus faciles à parcourir et à apprécier.

Bien que le PEM soit le premier musée à embaucher un neuroscientifique en résidence, d'autres institutions ont exploré le potentiel artistique de la recherche scientifique. La Tate Britain, un musée de Londres, a présenté en 2015 une exposition intitulée Tate Sensorium. Reconnaissant que la vue n'est qu'un des sens, le musée a associé quatre peintures de sa collection à une variété de goûts, d'odeurs, de sons et de sensations haptiques. Dans le cadre de l'exposition, les visiteurs portaient des bracelets spécialisés pour mesurer leur transpiration, utilisés comme indication de leur excitation. De cette façon, la Tate a tenté d'utiliser les dernières recherches scientifiques et technologiques pour aider à l'appréciation de l'art et à mesurer son effet.

Des musées et des galeries comme la Tate et le PEM sont peut-être parmi les premiers à intégrer les découvertes des neurosciences dans leurs expositions, mais ils ne sont certainement pas les derniers. À mesure que la neuroesthétique prend son envol et que davantage d'attention et de recherche lui sont consacrées, la frontière entre l'art et la science peut devenir de plus en plus floue. Bien que Zeki et Etcoff puissent voir cela comme un développement positif, tous ne sont pas aussi optimistes à propos de cette perspective.


Au-delà de la perception visuelle, auditive et haptique des mouvements : hMT+ est activé par la stimulation électrotactile de la langue chez les personnes voyantes et aveugles congénitales

Le cortex temporal moyen sensible au mouvement (complexe hMT+) répond également à la stimulation du mouvement non visuelle transmise par les modalités tactiles et auditives, à la fois chez les personnes voyantes et chez les personnes aveugles congénitales. Cela indique que hMT+ est vraiment sensible aux informations liées au mouvement, indépendamment de l'expérience visuelle et de la modalité sensorielle par laquelle ces informations sont transmises au cerveau. Ici, nous avons déterminé si le complexe hMT+ répond à la perception du mouvement en soi, c'est-à-dire le mouvement non perçu par les modalités visuelles, haptiques ou auditives. À l'aide de l'imagerie par résonance magnétique fonctionnelle (IRMf), nous avons étudié les réponses cérébrales de huit volontaires aveugles congénitalement et neuf voyants qui avaient été formés à l'utilisation de l'unité d'affichage de la langue (TDU), un dispositif de substitution sensorielle qui convertit les informations visuelles en impulsions électrotactiles délivrées à la langue. , pour résoudre une tâche de discrimination de mouvement tactile. Les stimuli consistaient en des points statiques, des points se déplaçant de manière cohérente ou des points se déplaçant dans des directions aléatoires. Les deux groupes ont appris la tâche au même rythme et activé le complexe hMT+ lors de la discrimination tactile du mouvement, bien qu'à des emplacements anatomiques différents. De plus, les sujets congénitalement aveugles ont montré des activations supplémentaires dans la voie corticale extrastriée dorsale. Ces résultats étendent les données antérieures à l'appui de l'organisation fonctionnelle supramodale du complexe hMT+ en montrant que cette aire corticale traite les informations liées au mouvement en soi, c'est-à-dire des stimuli de mouvement qui ne sont pas de nature visuelle et qui sont administrés aux structures corporelles qui, en humains, ne sont pas principalement consacrés à la perception du mouvement ou à la localisation spatiale, comme la langue. Conformément aux études précédentes, les activations différentielles entre les individus voyants et aveugles congénitales indiquent que le manque de vision conduit à des réarrangements fonctionnels de ces zones corticales supramodales.


Remapper le cerveau

Comment le cerveau aveugle supporte-t-il un traitement aussi supérieur ? Il existe des preuves substantielles du recrutement du cortex dit « visuel » pour soutenir ces améliorations comportementales (Pasqualotto & amp Proulx, 2012). Un certain nombre d'études de neuroimagerie ont découvert que le lobe occipital des individus aveugles est actif pendant le traitement des stimuli auditifs, haptiques et olfactifs (Amedi, Raz, Pianka, Malach, & Zohary, 2003 Kupers & Ptito, 2011 Rombaux et al., 2010) . Ces corrélations impliquent que les capacités améliorées des individus aveugles résultent soit du recrutement du cortex visuel autrement dormant par les modalités restantes, soit peut-être du démasquage de l'activité corticale visuelle qui soutient normalement de telles fonctions. L'activité cérébrale corrélée dans les études de neuroimagerie a été étayée par les résultats d'études sur des lésions à court terme (induites par une stimulation magnétique transcrânienne) et des lésions réelles (dommages causés par l'accident vasculaire cérébral) du lobe occipital, qui montrent que l'activité dans le cortex visuel est causalement pertinent (Amedi, Floel, Knecht, Zohary, & Cohen, 2004 Merabet et al., 2009).

Le recrutement des aires visuelles s'est avéré plus fréquent chez les personnes aveugles de naissance. Cela suggère que l'apparition précoce de la cécité produit soit une réorganisation cérébrale étendue, soit démasque plus efficacement le traitement non visuel qui a lieu dans des zones prétendument visuelles. L'hypothèse la plus probable est celle du démasquage d'une activité préexistante. Ce point de vue est corroboré par les effets produits par le bandage des yeux à long terme des participants voyants (Proulx, Stoerig, Ludowig, & Knoll, 2008) qui commencent à présenter des activations cérébrales et des répertoires comportementaux équivalents aux personnes aveugles (Merabet et al., 2008). En fait, un changement aussi rapide chez les participants adultes n'est pas compatible avec l'établissement de nouvelles connexions neuronales, qui doivent donc déjà être en place.

Cet ensemble de résultats soutient l'idée d'une organisation métamodale (Pascual-Leone & Hamilton, 2001) ou supramodale (Kupers, Pietrini, Ricciardi, & Ptito, 2011 Kupers & Ptito, 2011 Ricciardi & Pietrini, 2011) du cerveau (Proulx, Brown, Pasqualotto, & Meijer, 2012). Bien que le cerveau ait traditionnellement été subdivisé en régions à dominance sensorielle, un point de vue émergent est que les zones cérébrales seraient mieux classées par les calculs et les tâches qui sont effectuées. Ces résultats ont également été soutenus par des preuves convergentes en utilisant la substitution sensorielle. Fait intéressant, la représentation sensorielle neutre de la forme a été validée avec des dispositifs de sous-station sensorielle qui utilisent spécifiquement la stimulation des organes sensoriels qui ne sont normalement pas utilisés à des fins de reconnaissance de forme ou de navigation spatiale, comme l'audition avec les oreilles (Proulx et al., 2008) et sentir avec la langue (Proulx & Stoerig, 2006).


Université de Rochester

GRAND ANGLE : À l'aide d'un écran semi-circulaire de 7 pieds de haut qui englobe tout le champ de vision d'un spectateur, David Knill et d'autres scientifiques de Rochester explorent comment le cerveau donne un sens aux informations impliquant la vision périphérique et d'autres processus cognitifs de perception. (Photo : Adam Fenster)

Au moment où James Risen est arrivé à l'hôtel de Napa Valley que sa femme avait réservé pour célébrer son 60e anniversaire, il savait que quelque chose n'allait vraiment pas. Sans avertissement ni douleur, le côté droit de son champ de vision était devenu vide, comme si quelqu'un avait tiré un rideau sur la zone.

«Je ne pouvais voir qu'environ la moitié de ma vision normale», se souvient-il. "C'était comme ne pas avoir une vue d'ensemble."

Comme il l'apprendra bientôt des médecins des services d'urgence, « Le problème n'était pas avec mes yeux. Il y avait un problème avec mon cerveau.

Risen avait subi un accident vasculaire cérébral qui a endommagé son cortex visuel, provoquant la cécité du côté droit des deux yeux. Il s'agit d'une complication courante, estimée à affecter jusqu'à 50 pour cent des personnes victimes d'un AVC, et extrêmement désorientante.

"Chaque fois que j'ouvrais les yeux, cela me rappelait que j'avais un grave problème visuel", dit Risen. Lorsqu'il marchait dans des zones surpeuplées, les gens apparaissaient simplement, comme de nulle part, car il n'avait aucune capacité à détecter des objets ou des mouvements périphériquement du côté droit. Faire une randonnée dans les bois était hors de question. «Je pourrais me heurter à un arbre ou marcher dans un nid-de-poule», dit-il.

Le message qu'il a reçu de sa première visite chez un neuro-ophtalmologiste est encore plus troublant. Les cellules cérébrales qui traitent cette partie de sa vision étaient mortes et les médecins ne pouvaient rien faire pour restaurer sa vue. On lui a conseillé de s'adapter : d'arrêter de conduire, de vendre sa maison et de déménager au centre-ville où il pourrait prendre un bus pour se rendre à son travail d'administrateur d'un cabinet d'avocats à Columbus, Ohio.

Pour Risen, la perte d'indépendance était « effrayante ». « J'étais très déprimé.

Peu de temps après, Risen a participé à un programme de recherche universitaire sur la vision humaine et a entamé le long chemin du rétablissement. Dans le processus, il a également fait partie du nombre croissant de découvertes à Rochester qui contribuent à remodeler notre compréhension de la façon dont le cerveau «voit». À l'aide d'outils d'enquête allant d'un environnement de réalité virtuelle de la taille d'une pièce à des sondes électroniques microscopiques, les scientifiques explorent comment notre cerveau est capable de transformer le fouillis d'entrées sensorielles concurrentes et changeantes de nos yeux en une perception tridimensionnelle riche et cohérente que nous savoir que la vue. Leurs connaissances aident à mieux apprécier la plasticité du cerveau et mènent au développement de thérapies visuelles qui changent la vie.

Il n'est pas surprenant que Risen atterrisse à Rochester pour les dernières découvertes en matière de vision. Le surnom de la ville est le World's Image Center et Rochester abrite Kodak, Bausch & Lomb et Xerox, des sociétés spécialisées dans l'ingénierie optique et les systèmes optiques, dont beaucoup sont développés pour une utilisation avec l'œil. Aujourd'hui, alors même que ces sociétés réduisent leurs effectifs, la ville abrite le siège de plus de 80 entreprises axées sur l'optique et l'imagerie.

PARALLAXE PARADOX : Greg DeAngelis travaille à identifier les zones du cerveau responsables de la parallaxe du mouvement – ​​notre capacité à discerner notre relation tridimensionnelle avec les objets qui nous entourent en fonction de notre propre mouvement et de notre distance par rapport aux objets. (Photo : Adam Fenster)

Depuis près d'un demi-siècle, le Center for Visual Science de l'Université a associé cette expertise locale aux compétences de chercheurs de disciplines disparates. Le fondateur du Centre, Robert Boynton, était professeur à la fois de psychologie et d'optique, deux domaines très différents fusionnés sous la rubrique de la vision. Le centre rassemble 32 membres du corps professoral des domaines de l'ingénierie, de l'optique, de la neurologie, de l'ophtalmologie, des sciences du cerveau et cognitives, de la neurobiologie et de l'anatomie. Grâce au financement du National Eye Institute et de l'Office of Naval Research, le centre donne accès à des installations expérimentales partagées et à des experts techniques comme Keith Parkins, l'un de ses programmeurs seniors qui crée du code informatique pour tout, des écrans 3D aux visiocasques. pour voir à travers les systèmes de réalité augmentée.

"C'est une sorte de belle synergie entre la science fondamentale, l'ingénierie et la médecine, les trois", déclare David Williams, directeur du centre depuis 21 ans et doyen de la recherche pour les arts, les sciences et l'ingénierie. « Il existe en fait un fossé culturel assez important entre ces entreprises », dit-il. Dans la plupart des universités, les ingénieurs auraient peu d'expérience avec les patients, et les médecins, peu d'exposition à la conception d'équipement et à la science fondamentale. Mais à travers le centre, les cliniciens, les chercheurs et les concepteurs se rencontrent régulièrement pour partager des résultats expérimentaux, des idées et parfois même des participants à l'étude.

Le centre est un leader reconnu dans la recherche sur la vision avec ses membres publiant dans des revues comme La nature, Biologie actuelle, Neurosciences naturelles, et le Journal des neurosciences. Si les résultats qui découlent de cette collaboration confirment une chose, c'est que les capacités que nous tenons pour acquises, comme la vue, la perception de la profondeur et la coordination œil-main, font partie des tâches les plus complexes sur le plan biologique que nous entreprenons en tant qu'êtres humains.

« Plus de 50 pour cent du cortex, la surface du cerveau, est consacré au traitement des informations visuelles », souligne Williams, professeur d'optique médicale William G. Allyn. « Comprendre le fonctionnement de la vision peut être une clé pour comprendre le fonctionnement du cerveau dans son ensemble. »

"Lorsque des scientifiques dans les années 1950 se sont rencontrés pour parler d'intelligence artificielle, ils pensaient qu'apprendre à un ordinateur à jouer aux échecs serait très difficile, mais apprendre à un ordinateur à voir serait facile", explique David Knill, membre du centre, professeur de cerveau et de cognition. les sciences.

"Pourquoi? Parce que les échecs sont difficiles pour les humains. Seul le rare humain avec beaucoup de pratique devient un maître. Mais voir nous paraît facile. Même un bébé peut voir. D'ailleurs, les insectes, les oiseaux et les poissons peuvent voir, quoique différemment des humains. Certains voient mieux, en fait.

Ce que les chercheurs savent maintenant, c'est que la vision humaine est incroyablement compliquée. Alors que nous avons développé un logiciel qui peut battre le pantalon du meilleur maître d'échecs et le meilleur de nos plus brillants à Péril!, les modèles informatiques ont à peine effleuré la surface de la vision humaine.

« Nous pensons à tort à la vision humaine comme à une caméra », explique Knill. "Nous avons cette métaphore d'une image projetée sur la rétine et nous avons tendance à penser que la vision capture des images et les envoie au cerveau, comme un enregistrement de caméra vidéo sur une bande numérique."

Mais la vision humaine s'apparente plus à la parole qu'à la photographie. Dès la petite enfance, notre cerveau apprend à construire un environnement tridimensionnel en interprétant des signaux sensoriels visuels tels que la forme, la taille et l'occlusion, comment les objets proches obstruent la vue des objets plus éloignés.Même les indices non visuels, tels que les sons et les mouvements autonomes, nous aident à comprendre comment nous nous déplaçons dans l'espace et comment déplacer notre corps en conséquence.

« Nous apprenons à voir », dit Knill. "C'est quelque chose que nous avons passé notre vie à apprendre à faire, donc nous ne pouvons pas imaginer ne pas comprendre ce que nous voyons."

Cette vision s'adapte constamment à la base de certaines des découvertes les plus passionnantes de la science de la vision à Rochester. Par exemple, les scientifiques ont longtemps supposé que la sensibilité visuelle de base d'un individu, telle que la capacité de discerner de légères différences dans les nuances de gris, était fixe. Pas ainsi, a constaté Daphné Bavelier, professeur de sciences du cerveau et cognitives. Dans une série d'études en cours sur les effets des jeux vidéo sur la perception visuelle, Bavelier a montré que les joueurs d'action très expérimentés deviennent 58 % meilleurs pour percevoir les différences de contraste. Une telle discrimination visuelle, dit-elle, est le principal facteur limitant dans la façon dont une personne peut voir.

"Normalement, l'amélioration de la sensibilité aux contrastes signifie obtenir des lunettes ou une chirurgie oculaire, ce qui modifie d'une manière ou d'une autre l'optique de l'œil", explique Bavelier. "Mais nous avons constaté que les jeux vidéo d'action entraînent le cerveau à traiter plus efficacement les informations visuelles existantes, et les améliorations durent jusqu'à des années après l'arrêt du jeu."

Plus récemment, Alexandre Pouget, chercheur en sciences cognitives de Bavelier et Rochester, a découvert que jouer à des jeux vidéo d'action peut également entraîner l'esprit à prendre les bonnes décisions plus rapidement. Les joueurs de jeux vidéo dans leur étude ont développé une sensibilité accrue à ce qui se passait autour d'eux, un avantage qui pourrait se répercuter sur des activités quotidiennes telles que conduire, lire en petits caractères, suivre ses amis dans une foule et naviguer en ville.

LONGUE VUE: Sous le regard de Krystel Huxlin (debout) et de l'étudiante diplômée en neurosciences Anasuya Das, Maurice DeMay de Rochester démontre les exercices de vision périphérique qu'il fait pour renforcer ses capacités visuelles après qu'un accident vasculaire cérébral a endommagé son cortex visuel. (Photo : Adam Fenster)

"Ce n'est pas le cas que les joueurs de jeux d'action soient plus gâchettes et moins précis : ils sont tout aussi précis et aussi plus rapides", dit Bavelier. "Les joueurs de jeux d'action prennent des décisions plus correctes par unité de temps. Si vous êtes chirurgien ou si vous êtes au milieu d'un champ de bataille, cela peut faire toute la différence.

S'appuyant sur la découverte de Bavelier selon laquelle les jeux vidéo peuvent apprendre au cortex visuel à mieux utiliser les informations qu'il reçoit, Bavelier et Knill ont commencé des recherches sur la façon de recycler la stéréopsie, la capacité du cerveau à percevoir la profondeur en combinant les vues légèrement disparates qu'il reçoit de chaque œil, chez les patients qui sont stéréo-aveugles. Comme les effets dans les films 3D, la stéréopsie est ce qui fait qu'un objet solide semble « surgir » et sous-tend notre capacité à évaluer très précisément les distances, comme lorsque nous enfilons une aiguille ou frappons une balle, explique Knill.

Expert en perception de la profondeur, Knill étudie comment le cerveau utilise de tels indices visuels pour contrôler notre comportement dans le monde. Comment, par exemple, le cerveau intègre-t-il des informations sur la forme, la taille, l'ombre, l'orientation et la position des objets pour guider les mouvements de la main ? Quels signaux nous permettent de savoir exactement à quelle distance se trouve une tasse sur la table, et de la saisir avec une précision si étonnante ?

Pour l'étude de stéréopsie, Indu Vedamurthy, stagiaire postdoctoral au centre, a conçu un jeu informatique en 3D utilisant des animations informatiques, des miroirs sans tain et des dispositifs de suivi oculaire, en collaboration avec Bavelier et Knill. Jusqu'à six jours par semaine pendant une heure à chaque fois, les participants à l'étude qui ont une mauvaise stéréovision font de leur mieux pour écraser une grenouille virtuelle. Le hic, c'est que le jeu supprime tous les autres rappels sur lesquels nous comptons généralement pour la profondeur, comme la perspective et la vitesse et le mouvement relatifs, et oblige le joueur à se fier uniquement à des repères stéréoscopiques pour juger de l'emplacement de la grenouille. L'équipe espère qu'en forçant les participants à se concentrer sur ces indices, ils renforceront leur capacité à percevoir la profondeur.

Greg DeAngelis explore également la perception de la profondeur mais au niveau biologique de base des neurones individuels. Le professeur et titulaire de la chaire de sciences cérébrales et cognitives est un expert de la parallaxe de mouvement, un indice de profondeur qui découle des propres mouvements du spectateur.

Avec la parallaxe de mouvement, la direction et la vitesse de déplacement d'un objet sur la rétine sont directement liées à sa distance par rapport au spectateur. Lorsque nous nous déplaçons, les objets proches semblent se déplacer dans la direction opposée de notre tête, tandis que les objets plus éloignés se déplacent avec nous. "Les repères de parallaxe de mouvement sont déterminés par la géométrie de la visualisation, il s'agit donc potentiellement d'une mesure très précise de la distance et d'un puissant repère de profondeur", explique DeAngelis.

"Le défi pour nous était de comprendre où dans le cerveau se trouvent des neurones qui peuvent réellement extraire des informations sur la profondeur à partir de la parallaxe du mouvement, et jusqu'à il y a quelques années, personne ne le savait." Pour résoudre le casse-tête, son équipe a créé un système de réalité virtuelle avec une animation qui simulait le mouvement des objets mais selon un schéma ambigu à moins que le spectateur ne se déplace d'un côté à l'autre. Ils ont ensuite mesuré le déclenchement des neurones dans la zone temporale moyenne du cerveau, une petite zone connue pour traiter le mouvement visuel.

Lorsque les neurones individuels de cette région n'ont reçu que les indices visuels de l'animation, ils se sont déclenchés sans discernement. Mais lorsque les signaux du mouvement des yeux ont été ajoutés, les neurones se sont déclenchés d'une manière cohérente avec la disposition tridimensionnelle de la scène.

L'expérience démontre, dit DeAngelis, comment des neurones uniques dans le cerveau combinent des images visuelles avec des informations sur le mouvement des yeux pour calculer la profondeur. Notre perception des trois dimensions ne repose pas uniquement sur des caractéristiques visuelles comme la forme ou l'occlusion ou même sur la vision binoculaire.

"Le cerveau utilise de nombreux autres signaux pour donner un sens à l'entrée visuelle et l'un d'entre eux est le mouvement des yeux", dit-il.

« Nous avons beaucoup appris sur le fonctionnement de différentes zones du cerveau au fil des ans en observant des humains souffrant de lésions cérébrales causées par des lésions et des accidents vasculaires cérébraux », dit-il. Mais une telle perte de cellules nerveuses n'est généralement pas limitée à une région spécifique. Son laboratoire est capable d'inactiver temporairement de minuscules zones du cortex cérébral de seulement 1 millimètre de diamètre, puis d'observer et de cartographier les fonctions de zones discrètes avec précision.

De telles avancées, anticipe DeAngelis, aideront à décoder la façon dont le cerveau comprend des aspects encore plus complexes de la profondeur, comme la perception des surfaces ondulantes et leur orientation par rapport au spectateur.

Selon les chercheurs, les connaissances sur la perception visuelle sont importantes pour comprendre qui nous sommes en tant qu'espèce.

"Les humains sont des créatures très dominées visuellement", explique DeAngelis. « Si vous comparez les humains aux souris, les souris ont une vision assez moche. Ils comptent sur le fouet et énormément sur l'olfaction. Non pas que nos autres sens ne soient pas importants, mais une grande partie de notre comportement, comme la capacité de manipuler des choses avec nos mains et de travailler avec des outils, repose fortement sur la vision.

Après avoir perdu la moitié de cette capacité, Risen ne pouvait pas être plus d'accord. Il est venu à Rochester pour travailler avec Krystel Huxlin, professeur agrégé d'ophtalmologie et de sciences du cerveau et cognitives qui a été le pionnier de l'utilisation d'exercices de vision pour aider à restaurer la vue perdue à la suite de lésions cérébrales causées par un accident vasculaire cérébral. "Le cerveau est comme un gros muscle, à sa manière, et il nécessite de l'exercice, et si vous voulez récupérer des fonctions, vous devez l'exercer", explique Huxlin.

L'utilisation de la thérapie cérébrale était une idée radicale dans les cercles médicaux et scientifiques il n'y a pas si longtemps, une idée qui a suscité un grand scepticisme. Une fois que les cellules nerveuses meurent, elles ne reviennent pas, peu importe à quel point elles sont stimulées.

Mais le travail de Huxlin n'a pas seulement montré une amélioration de la vision, il aide également les scientifiques à mieux comprendre la puissante capacité du cerveau à réapprendre une compétence en utilisant des voies neuronales alternatives si on leur donne le bon encadrement.

Pour reconstruire la perception visuelle périphérique, les participants à l'étude fixent une minuscule cible au centre d'un écran d'ordinateur tandis qu'un motif de points mobiles de la taille d'un quart clignote pendant une demi-seconde dans leur champ aveugle. Sans regarder le motif en mouvement, les participants essaient de distinguer dans quelle direction les points dérivent. Un deuxième exercice utilise un cercle de barres. Le but est d'identifier si les barres sont orientées verticalement ou horizontalement.

Comparé à courir des tours et à soulever des poids, s'appuyer sur une mentonnière et regarder des points ne semble pas vraiment éprouvant. Faux, disent Risen et les autres participants.

"C'est très fastidieux, et c'est concentré, concentré", explique Risen, qui a fait les exercices cinq jours par semaine à la maison au cours des 18 derniers mois. « Il est très facile de tricher même si vous ne le souhaitez pas » en regardant par inadvertance les points en mouvement, dit-il. Les sessions comprennent 300 essais, deux fois par jour, un processus qui prend environ une heure. Les progrès nécessitent des mois de pratique constante. « Si je travaillais autant que je fais ça, je serais un Adonis », dit-il.

"La raison pour laquelle cela fonctionne est que nous martelons exactement au même endroit dans le champ visuel et sur les mêmes circuits neuronaux, encore et encore", explique Huxlin. Bien que l'AVC ait détruit les cellules qui transmettent généralement les signaux visuels, d'autres voies plus faibles véhiculent également des stimuli visuels. "Ce que nous pensons qui se passe, c'est que la formation réveille ou renforce ces voies alternatives au point que l'information atteint alors la conscience."

Une fois que le cerveau récupère la capacité de détecter les stimuli de mouvement à partir des exercices, la plupart des autres aspects de la vision récupèrent automatiquement, dit-elle.

Mais l'amélioration que Huxlin est capable de mesurer avec précision sur l'écran d'ordinateur se traduit-elle par une capacité réelle à comprendre le monde en trois dimensions ? C'est l'une des questions que Knill travaille avec Huxlin à explorer.

Pour étudier les personnes souffrant de dommages visuels similaires à ceux de Risen, Laurel Issen, une étudiante diplômée travaillant avec Knill et Huxlin, utilise un système de réalité virtuelle. Les participants sont assis devant un écran semi-circulaire de 7 pieds de haut qui englobe l'ensemble de leur champ de vision. Là, ils font l'expérience d'un motif de points en mouvement. Pensez aux animations de films de science-fiction, dans lesquelles les explorateurs de l'espace survolent un champ d'astéroïdes, explique Knill. Les points se déplacent de manière à simuler un mouvement physique dans une certaine direction.

La beauté de cette configuration élaborée, note-t-il, est que les chercheurs peuvent manipuler le motif de points dans le champ aveugle du sujet. Finalement, Knill et Issen prévoient de tester les participants avant de commencer le régime d'exercices oculaires de Huxlin, et de nouveau après des mois de thérapie pour documenter les améliorations dans les zones endommagées.

En attendant, Risen est ravi des mesures personnelles de son rétablissement. Il a connu une « amélioration significative » de sa vision et sa « vie est beaucoup plus facile maintenant. Je suis plus à l'aise dans mon environnement. Durer

En septembre, il franchit officiellement l'obstacle qu'il redoutait depuis trois ans. Il a réussi le test de vision périphérique de son permis de conduire, qui consiste à pouvoir détecter un flash lumineux sur le côté.

"Quand j'ai vu cette lumière, j'étais l'homme le plus heureux du monde", dit-il.

Susan Hagen écrit sur les sciences sociales pour University Communications.


Contenu

— `Commentaires ajoutés au formulaire de consentement pour une opération de lobotomie sur "Helaine Strauss", le pseudonyme utilisé pour "un patient dans un hôpital privé d'élite". [13]

Historiquement, les patients de lobotomie étaient, immédiatement après la chirurgie, souvent stuporeux, confus et incontinents. Certains ont développé un énorme appétit et ont pris un poids considérable. Les convulsions étaient une autre complication fréquente de la chirurgie. L'accent a été mis sur la formation des patients dans les semaines et les mois suivant la chirurgie. [14]

Le but de l'opération était de réduire les symptômes des troubles mentaux, et il a été reconnu que cela se faisait au détriment de la personnalité et de l'intellect d'une personne. Le psychiatre britannique Maurice Partridge, qui a mené une étude de suivi sur 300 patients, a déclaré que le traitement avait atteint ses effets en « réduisant la complexité de la vie psychique ». Après l'opération, la spontanéité, la réactivité, la conscience de soi et la maîtrise de soi ont été réduites. L'activité a été remplacée par l'inertie, et les gens ont été laissés émotionnellement émoussés et limités dans leur gamme intellectuelle. [15]

Les conséquences de l'opération ont été qualifiées de « mitigées ». [16] Certains patients sont décédés à la suite de l'opération et d'autres sont décédés plus tard par suicide. Certains ont été gravement endommagés au cerveau. D'autres ont pu quitter l'hôpital ou sont devenus plus gérables à l'intérieur de l'hôpital. [16] Quelques personnes ont réussi à reprendre un travail responsable, tandis qu'à l'autre extrême, des personnes se sont retrouvées avec des déficiences graves et invalidantes. [17] La ​​plupart des gens appartenaient à un groupe intermédiaire, avec une certaine amélioration de leurs symptômes mais aussi des déficits émotionnels et intellectuels auxquels ils s'adaptaient mieux ou moins bien. [17] En moyenne, il y avait un taux de mortalité d'environ 5 % au cours des années 1940. [17]

La procédure de lobotomie pourrait avoir de graves effets négatifs sur la personnalité du patient et sa capacité à fonctionner de manière indépendante. [18] Les patients de lobotomie montrent souvent une réduction marquée de l'initiative et de l'inhibition. [19] Ils peuvent également éprouver des difficultés à se mettre à la place des autres en raison d'une diminution de la cognition et du détachement de la société. [20]

Walter Freeman a inventé le terme « enfance induite chirurgicalement » et l'a constamment utilisé pour désigner les résultats de la lobotomie. L'opération a laissé aux personnes ayant une "personnalité infantile" une période de maturation qui, selon Freeman, conduirait ensuite à la guérison. Dans un mémoire non publié, il décrit comment « la personnalité du patient a été modifiée d'une manière ou d'une autre dans l'espoir de le rendre plus sensible aux pressions sociales sous lesquelles il est censé exister ». Il a décrit une femme de 29 ans comme étant, à la suite d'une lobotomie, une « patiente souriante, paresseuse et satisfaisante avec la personnalité d'une huître » qui ne pouvait pas se souvenir du nom de Freeman et versait sans cesse du café dans un pot vide. Lorsque ses parents ont eu du mal à gérer son comportement, Freeman a conseillé un système de récompenses (crème glacée) et de punition (smacks). [21]

Au début du 20e siècle, le nombre de patients résidant dans des hôpitaux psychiatriques a augmenté de manière significative [n 2] alors que peu de traitements médicaux efficaces étaient disponibles. [n 3] [27] La ​​lobotomie faisait partie d'une série de thérapies physiques radicales et invasives développées en Europe à cette époque qui marquaient une rupture avec une culture psychiatrique de nihilisme thérapeutique qui prévalait depuis la fin du XIXe siècle. [28] Les nouvelles thérapies physiques « héroïques » conçues à cette époque expérimentale, [29] dont la thérapie antipaludique de la parésie générale des aliénés (1917), [30] la thérapie du sommeil profond (1920), la thérapie par choc insulinique (1933), le cardiazol la thérapie de choc (1934) et la thérapie par électrochocs (1938), [31] ont contribué à imprégner la profession psychiatrique alors thérapeutiquement moribonde et démoralisée d'un sentiment renouvelé d'optimisme dans la curabilité de la folie et la puissance de leur art. [32] Le succès des thérapies de choc, malgré le risque considérable qu'elles représentaient pour les patients, a également contribué à accommoder les psychiatres à des formes d'intervention médicale toujours plus drastiques, y compris la lobotomie. [29]

L'historien clinicien Joel Braslow soutient que de la thérapie antipaludique à la lobotomie, les thérapies psychiatriques physiques « se rapprochent de plus en plus de l'intérieur du cerveau », cet organe prenant de plus en plus « une place centrale en tant que source de maladie et site de guérison ». [33] Pour Roy Porter, autrefois doyen de l'histoire médicale, [34] les interventions psychiatriques souvent violentes et invasives développées au cours des années 1930 et 1940 sont révélatrices à la fois du désir bien intentionné des psychiatres de trouver des moyens médicaux de soulager la souffrance du grand nombre de patients alors hospitalisés en psychiatrie et aussi du manque relatif de pouvoir social de ces mêmes patients pour résister aux interventions de plus en plus radicales voire téméraires des médecins de l'asile. [35] De nombreux médecins, patients et membres de la famille de l'époque pensaient que malgré des conséquences potentiellement catastrophiques, les résultats de la lobotomie étaient apparemment positifs dans de nombreux cas ou, du moins, ils étaient considérés comme tels lorsqu'ils étaient mesurés à côté de l'alternative apparente de institutionnalisation. La lobotomie a toujours été controversée, mais pendant une période du courant médical dominant, elle a même été célébrée et considérée comme un remède légitime de dernier recours pour des catégories de patients qui étaient autrement considérés comme désespérés. [36] Aujourd'hui, la lobotomie est devenue une procédure décriée, synonyme de barbarie médicale et un exemple exemplaire de piétinement médical des droits des patients. [3]

Psychochirurgie précoce Modifier

Avant les années 1930, des médecins individuels avaient rarement expérimenté de nouvelles opérations chirurgicales sur le cerveau de personnes considérées comme folles. Plus particulièrement en 1888, le psychiatre suisse Gottlieb Burckhardt a lancé ce qui est communément considéré comme la première tentative systématique de psychochirurgie humaine moderne. [37] Il a opéré six patients chroniques sous ses soins à l'asile suisse de Préfargier, en enlevant des sections de leur cortex cérébral. La décision de Burckhardt d'opérer était fondée sur trois points de vue dominants sur la nature de la maladie mentale et sa relation avec le cerveau. Premièrement, la croyance que la maladie mentale était de nature organique, et reflétait ensuite une pathologie cérébrale sous-jacente, que le système nerveux était organisé selon un modèle associationniste comprenant un système d'entrée ou afférent (un centre sensoriel), un système de connexion où le traitement de l'information a pris place (un centre d'association), et un système de sortie ou efférent (un centre moteur) et, enfin, une conception modulaire du cerveau où des facultés mentales discrètes étaient connectées à des régions spécifiques du cerveau. [38] L'hypothèse de Burckhardt était qu'en créant délibérément des lésions dans des régions du cerveau identifiées comme des centres d'association, une transformation du comportement pourrait s'ensuivre. [38] Selon son modèle, les malades mentaux pourraient éprouver des « excitations anormales en qualité, quantité et intensité » dans les régions sensorielles du cerveau et cette stimulation anormale serait alors transmise aux régions motrices donnant lieu à une pathologie mentale. [39] Il a expliqué, cependant, que le fait d'enlever le matériel de l'une ou l'autre des zones sensorielles ou motrices pourrait donner lieu à une "grave perturbation fonctionnelle". [39] Au lieu de cela, en ciblant les centres d'association et en créant un "fossé" autour de la région motrice du lobe temporal, il espérait briser leurs lignes de communication et ainsi soulager à la fois les symptômes mentaux et l'expérience de la détresse mentale. [40]

Dans l'intention d'améliorer les symptômes chez les personnes souffrant de troubles violents et insurmontables plutôt que d'effectuer une guérison, [41] Burckhardt a commencé à opérer des patients en décembre 1888, [42] mais ses méthodes chirurgicales et ses instruments étaient bruts et les résultats de la procédure étaient mitigés à meilleur. [39] Il a opéré six patients au total et, selon sa propre évaluation, deux n'ont connu aucun changement, deux patients sont devenus plus calmes, un patient a eu des convulsions épileptiques et est décédé quelques jours après l'opération, et un patient s'est amélioré. [n 4] Les complications comprenaient une faiblesse motrice, une épilepsie, une aphasie sensorielle et une « surdité verbale ». [44] Revendiquant un taux de réussite de 50 pour cent, [45] il a présenté les résultats au Congrès médical de Berlin et a publié un rapport, mais la réponse de ses pairs médicaux était hostile et il n'a pas fait d'autres opérations. [46]

En 1912, deux médecins basés à Saint-Pétersbourg, le neurologue russe Vladimir Bekhterev et son jeune collègue estonien, le neurochirurgien Ludvig Puusepp, ont publié un article examinant une série d'interventions chirurgicales pratiquées sur des malades mentaux. [47] Tout en traitant généralement ces efforts favorablement, dans leur examen de la psychochirurgie, ils ont réservé un mépris incessant pour les expériences chirurgicales de Burckhardt de 1888 et ont estimé qu'il était extraordinaire qu'un médecin qualifié puisse entreprendre une procédure aussi malsaine. [48]

Nous avons cité ces données pour montrer non seulement à quel point ces opérations étaient sans fondement mais aussi à quel point ces opérations étaient dangereuses. Nous ne saurions expliquer comment leur auteur, titulaire d'une licence en médecine, a pu se résoudre à les réaliser. [49]

Les auteurs ont omis de mentionner, cependant, qu'en 1910 Puusepp lui-même avait opéré le cerveau de trois malades mentaux, [n 5] [51] sectionnant le cortex entre les lobes frontal et pariétal. [52] Il avait abandonné ces tentatives en raison de résultats insatisfaisants et cette expérience a probablement inspiré l'invective dirigée contre Burckhardt dans l'article de 1912. [48] ​​En 1937, Puusepp, malgré sa critique antérieure de Burckhardt, était de plus en plus persuadé que la psychochirurgie pouvait être une intervention médicale valable pour les dérangés mentaux. [n 6] [54] À la fin des années 1930, il a travaillé en étroite collaboration avec l'équipe de neurochirurgie de l'hôpital Racconigi près de Turin pour en faire un centre précoce et influent pour l'adoption de la leucotomie en Italie. [55]

Développement Modifier

La leucotomie a été entreprise pour la première fois en 1935 sous la direction du neurologue portugais (et inventeur du terme psychochirurgie) António Egas Moniz. [n 7] [59] Développant d'abord un intérêt pour les troubles psychiatriques et leur traitement somatique au début des années 1930, [60] Moniz a apparemment conçu une nouvelle opportunité de reconnaissance dans le développement d'une intervention chirurgicale sur le cerveau comme traitement de la maladie mentale . [41]

Lobes frontaux Modifier

La source d'inspiration de la décision de Moniz de risquer la psychochirurgie a été obscurcie par des déclarations contradictoires faites sur le sujet par Moniz et d'autres à la fois de manière contemporaine et rétrospective. [61] Le récit traditionnel aborde la question de savoir pourquoi Moniz a ciblé les lobes frontaux en faisant référence aux travaux du neuroscientifique de Yale John Fulton et, plus dramatiquement, à une présentation que Fulton a faite avec son collègue junior Carlyle Jacobsen au deuxième congrès international. de Neurologie tenue à Londres en 1935. [62] Le principal domaine de recherche de Fulton était sur la fonction corticale des primates et il avait établi le premier laboratoire de neurophysiologie des primates d'Amérique à Yale au début des années 1930. [63] Au Congrès de 1935, en présence de Moniz, [n 8] Fulton et Jacobsen ont présenté deux chimpanzés, nommés Becky et Lucy, qui avaient subi des lobectomies frontales et des changements ultérieurs de comportement et de fonction intellectuelle. [64] Selon le récit du congrès de Fulton, ils ont expliqué qu'avant la chirurgie, les deux animaux, et en particulier Becky, la plus émotive des deux, présentaient un « comportement frustrant » – c'est-à-dire qu'ils avaient des crises de colère qui pouvaient inclure se rouler sur le sol et déféquer - si, en raison de leur piètre performance dans un ensemble de tâches expérimentales, ils n'étaient pas récompensés. [65] Suite à l'ablation chirurgicale de leurs lobes frontaux, le comportement des deux primates a changé de manière marquée et Becky a été pacifiée à un tel degré que Jacobsen a apparemment déclaré que c'était comme si elle avait rejoint un "culte du bonheur". [64] Au cours de la section de questions et réponses du document, Moniz, est-il allégué, a "surpris" Fulton en demandant si cette procédure pourrait être étendue aux sujets humains souffrant de maladie mentale. Fulton a déclaré qu'il avait répondu que, bien que possible en théorie, il s'agissait sûrement d'une intervention « trop redoutable » pour une utilisation sur les humains. [66]

Le fait que Moniz ait commencé ses expériences de leucotomie trois mois seulement après le congrès a renforcé la relation apparente de cause à effet entre la présentation de Fulton et Jacobsen et la détermination du neurologue portugais à opérer les lobes frontaux. [67] Comme l'auteur de ce compte Fulton, qui a parfois été revendiqué comme le père de la lobotomie, a pu plus tard enregistrer que la technique avait sa véritable origine dans son laboratoire. [68] Approuvant cette version des événements, en 1949, le neurologue de Harvard Stanley Cobb a fait remarquer lors de son discours présidentiel à l'American Neurological Association que "rarement dans l'histoire de la médecine une observation de laboratoire a été si rapidement et dramatiquement traduite en une procédure thérapeutique" . Le rapport de Fulton, rédigé dix ans après les événements décrits, est cependant sans corroboration dans les archives historiques et ressemble peu à un récit antérieur non publié qu'il a écrit sur le congrès. Dans ce récit précédent, il a mentionné un échange privé et accessoire avec Moniz, mais il est probable que la version officielle de leur conversation publique qu'il a promulguée est sans fondement. [69] En fait, Moniz a déclaré qu'il avait conçu l'opération quelque temps avant son voyage à Londres en 1935, après avoir fait part de son idée de psychochirurgie à son collègue junior, le jeune neurochirurgien Pedro Almeida Lima, dès 1933. [70] Le récit traditionnel exagère l'importance de Fulton et Jacobsen dans la décision de Moniz d'initier une chirurgie du lobe frontal, et omet le fait qu'un ensemble détaillé de recherches neurologiques qui ont émergé à cette époque ont suggéré à Moniz et à d'autres neurologues et neurochirurgiens que la chirurgie sur ce partie du cerveau pourrait entraîner des changements de personnalité importants chez les malades mentaux. [71]

Comme les lobes frontaux ont fait l'objet d'enquêtes et de spéculations scientifiques depuis la fin du XIXe siècle, la contribution de Fulton, bien qu'elle ait pu servir de source de soutien intellectuel, est en elle-même inutile et inadéquate pour expliquer la résolution de Moniz d'opérer sur cette section. du cerveau. [72] Selon un modèle évolutif et hiérarchique de développement cérébral, il avait été émis l'hypothèse que ces régions associées à un développement plus récent, telles que le cerveau des mammifères et, plus particulièrement, les lobes frontaux, étaient responsables de fonctions cognitives plus complexes. [73] Cependant, cette formulation théorique a trouvé peu de soutien en laboratoire, car l'expérimentation du 19ème siècle n'a trouvé aucun changement significatif dans le comportement animal après l'ablation chirurgicale ou la stimulation électrique des lobes frontaux. [73] Cette image du soi-disant "lobe silencieux" a changé dans la période après la Première Guerre mondiale avec la production de rapports cliniques d'anciens militaires qui avaient subi un traumatisme cérébral. Le raffinement des techniques neurochirurgicales a également facilité les tentatives croissantes d'éliminer les tumeurs cérébrales, de traiter l'épilepsie focale chez l'homme et a conduit à une neurochirurgie expérimentale plus précise dans les études animales. [73] Des cas ont été signalés où les symptômes mentaux ont été atténués après l'ablation chirurgicale de tissus cérébraux malades ou endommagés. [52] L'accumulation d'études de cas médicaux sur les changements de comportement suite à des dommages aux lobes frontaux a conduit à la formulation du concept de Witzelsucht, qui désignait une affection neurologique caractérisée par une certaine hilarité et enfantillage chez les affligés. [73] L'image de la fonction du lobe frontal qui a émergé de ces études a été compliquée par l'observation que les déficits neurologiques associés aux dommages à un seul lobe pourraient être compensés si le lobe opposé restait intact. [73] En 1922, le neurologue italien Leonardo Bianchi a publié un rapport détaillé sur les résultats des lobectomies bilatérales chez les animaux qui soutenait l'affirmation selon laquelle les lobes frontaux faisaient à la fois partie intégrante de la fonction intellectuelle et que leur élimination conduisait à la désintégration de la personnalité du sujet. [74] Ce travail, bien qu'influent, n'était pas sans critiques en raison de lacunes dans la conception expérimentale. [73]

La première lobectomie bilatérale d'un sujet humain a été réalisée par le neurochirurgien américain Walter Dandy en 1930. [n 9] [75] Le neurologue Richard Brickner a rapporté ce cas en 1932, [76] racontant que le receveur, connu sous le nom de ", tout en éprouvant un émoussement de l'affect, n'avait subi aucune diminution apparente de la fonction intellectuelle et semblait, au moins pour l'observateur occasionnel, parfaitement normal. [77] Brickner a conclu de cette preuve que « les lobes frontaux ne sont pas des 'centres' pour l'intellect ». [78] Ces résultats cliniques ont été reproduits dans une opération similaire entreprise en 1934 par le neurochirurgien Roy Glenwood Spurling et rapporté par le neuropsychiatre Spafford Ackerly. [79] Au milieu des années 1930, l'intérêt pour la fonction des lobes frontaux a atteint son paroxysme. Cela s'est reflété dans le congrès neurologique de 1935 à Londres, qui a accueilli [79] dans le cadre de ses délibérations, [79] "un symposium remarquable . sur les fonctions des lobes frontaux". [80] Le panel était présidé par Henri Claude, un neuropsychiatre français, qui a commencé la séance en faisant le point sur l'état des recherches sur les lobes frontaux, et a conclu que « l'altération des lobes frontaux modifie profondément la personnalité des sujets ». [78] Ce symposium parallèle contenait de nombreux articles de neurologues, de neurochirurgiens et de psychologues, dont un de Brickner, qui a grandement impressionné Moniz, [77] qui a de nouveau détaillé le cas du "Patient A". [79] L'article de Fulton et Jacobsen, présenté dans une autre session de la conférence sur la physiologie expérimentale, était remarquable en reliant les études animales et humaines sur la fonction des lobes frontaux. [79] Ainsi, lors du Congrès de 1935, Moniz disposait d'un corpus croissant de recherches sur le rôle des lobes frontaux qui s'étendait bien au-delà des observations de Fulton et Jacobsen. [81]

Moniz n'était pas non plus le seul médecin dans les années 1930 à avoir envisagé des procédures ciblant directement les lobes frontaux. [82] Bien qu'en fin de compte, la chirurgie du cerveau ne soit pas considérée comme comportant trop de risques, des médecins et des neurologues tels que William Mayo, Thierry de Martel, Richard Brickner et Leo Davidoff avaient, avant 1935, envisagé la proposition. [n 10] [84] Inspiré par le développement par Julius Wagner-Jauregg de la thérapie antipaludique pour le traitement de la parésie générale des aliénés, le médecin français Maurice Ducosté rapporta en 1932 qu'il avait injecté 5 ml de sang antipaludique directement dans les lobes frontaux de plus de 100 patients parétiques à travers des trous percés dans le crâne. [82] Il a affirmé que les parétiques injectés montraient des signes d'"amélioration mentale et physique incontestable" et que les résultats pour les patients psychotiques subissant la procédure étaient également "encourageants". [85] L'injection expérimentale de sang paludéen fiévreux dans les lobes frontaux a également été reproduite au cours des années 1930 dans les travaux d'Ettore Mariotti et M. Sciutti en Italie et de Ferdière Coulloudon en France. [86] En Suisse, presque simultanément avec le début du programme de leucotomie de Moniz, le neurochirurgien François Ody avait enlevé tout le lobe frontal droit d'un patient schizophrène catatonique. [87] En Roumanie, la procédure d'Ody a été adoptée par Dimitri Bagdasar et Constantinesco travaillant à l'hôpital central de Bucarest. [83] Ody, qui a retardé la publication de ses propres résultats pendant plusieurs années, a ensuite réprimandé Moniz pour avoir prétendu avoir guéri des patients par leucotomie sans attendre de déterminer s'il y avait eu une "rémission durable". [88]

Modèle neurologique Modifier

Les fondements théoriques de la psychochirurgie de Moniz étaient en grande partie à la mesure de ceux du XIXe siècle qui avaient éclairé la décision de Burckhardt d'exciser la matière du cerveau de ses patients. Bien que dans ses écrits ultérieurs, Moniz ait fait référence à la fois à la théorie des neurones de Ramón y Cajal et au réflexe conditionné d'Ivan Pavlov [89], il a simplement interprété cette nouvelle recherche neurologique en termes de l'ancienne théorie psychologique de l'associationnisme. [61] Il différait considérablement de Burckhardt, cependant en ce qu'il ne pensait pas qu'il y avait de pathologie organique dans le cerveau des malades mentaux, mais plutôt que leurs voies neuronales étaient prises dans des circuits fixes et destructeurs menant à des « idées prédominantes et obsessionnelles ». . [n 11] [91] Comme l'écrivait Moniz en 1936 :

[Les] troubles mentaux doivent avoir . une relation avec la formation de groupements cellulo-connectifs, qui deviennent plus ou moins fixes. Les corps cellulaires pourront rester tout à fait normaux, leurs cylindres n'auront pas d'altérations anatomiques mais leurs liaisons multiples, très variables chez les gens normaux, pourront avoir des dispositions plus ou moins fixes, qui auront un rapport avec des idées persistantes et des délires dans certains états psychiques morbides. . [92]

Pour Moniz, « pour guérir ces patients », il fallait « détruire les arrangements plus ou moins figés de connexions cellulaires qui existent dans le cerveau, et notamment ceux qui sont liés aux lobes frontaux », [93] supprimant ainsi leurs circuits cérébraux pathologiques. Moniz croyait que le cerveau s'adapterait fonctionnellement à de telles blessures. [94] Contrairement à la position adoptée par Burckhardt, elle était infalsifiable selon les connaissances et la technologie de l'époque car l'absence d'une corrélation connue entre la pathologie cérébrale physique et la maladie mentale ne pouvait réfuter sa thèse. [95]

Premières leucotomies Modifier

Le 12 novembre 1935 à l'hôpital Santa Marta de Lisbonne, Moniz initia la première d'une série d'opérations sur le cerveau des malades mentaux. [97] Les premiers patients sélectionnés pour l'opération ont été fournis par le directeur médical de l'hôpital psychiatrique Miguel Bombarda de Lisbonne, José de Matos Sobral Cid. [98] Comme Moniz manquait de formation en neurochirurgie et que ses mains étaient paralysées par la goutte, la procédure a été réalisée sous anesthésie générale par Pedro Almeida Lima, qui avait auparavant aidé Moniz dans ses recherches sur l'angiographie cérébrale. [n 12] [100] L'intention était d'enlever certaines des longues fibres qui reliaient les lobes frontaux à d'autres centres cérébraux majeurs. [101] À cette fin, il a été décidé que Lima trépanerait dans le côté du crâne puis injecterait de l'éthanol dans la « substance blanche sous-corticale de la zone préfrontale » [96] afin de détruire les fibres de connexion, ou faisceaux d'association, [102] et créer ce que Moniz a appelé une « barrière frontale ». [n 13] [103] Une fois la première opération terminée, Moniz l'a considérée comme un succès et, observant que la dépression de la patiente avait été soulagée, il l'a déclarée « guérie » bien qu'elle ne soit jamais, en fait, sortie de l'hôpital psychiatrique. [104] Moniz et Lima ont persisté dans cette méthode d'injection d'alcool dans les lobes frontaux pour les sept patients suivants, mais, après avoir dû injecter des patients à de nombreuses reprises pour obtenir ce qu'ils considéraient comme un résultat favorable, ils ont modifié les moyens par lesquels ils sectionner les lobes frontaux. [104] Pour le neuvième patient, ils ont introduit un instrument chirurgical appelé leucotome, il s'agissait d'une canule de 11 centimètres (4,3 pouces) de longueur et de 2 centimètres (0,79 pouce) de diamètre. Il avait une boucle de fil rétractable à une extrémité qui, lorsqu'elle était tournée, produisait une lésion circulaire de 1 centimètre (0,39 in) de diamètre dans la substance blanche du lobe frontal. [105] En règle générale, six lésions étaient incisées dans chaque lobe, mais s'ils n'étaient pas satisfaits des résultats, Lima pouvait effectuer plusieurs procédures, chacune produisant plusieurs lésions dans les lobes frontaux gauche et droit. [104]

À la fin de cette première série de leucotomies en février 1936, Moniz et Lima avaient opéré vingt patients avec un délai moyen d'une semaine entre chaque procédure. Moniz publia ses conclusions en toute hâte en mars de la même année. [106] Les patients étaient âgés de 27 à 62 ans, douze étaient des femmes et huit étaient des hommes. Neuf des patients ont été diagnostiqués comme souffrant de dépression, six de schizophrénie, deux de trouble panique et un de manie, de catatonie et de maniaco-dépression, les symptômes les plus importants étant l'anxiété et l'agitation. La durée de la maladie avant l'intervention variait d'aussi peu que quatre semaines à jusqu'à 22 ans, bien que tous sauf quatre aient été malades pendant au moins un an. [107] Les patients étaient normalement opérés le jour de leur arrivée à la clinique de Moniz et retournaient dans les dix jours à l'hôpital psychiatrique Miguel Bombarda. [108] Une évaluation de suivi postopératoire superficielle a eu lieu entre une et dix semaines après la chirurgie. [109] Des complications ont été observées chez chacun des patients atteints de leucotomie et comprenaient : « augmentation de la température, vomissements, incontinence vésicale et intestinale, diarrhée et affections oculaires telles que ptosis et nystagmus, ainsi que des effets psychologiques tels que l'apathie, l'akinésie, la léthargie, timing et désorientation locale, cleptomanie et sensations anormales de faim". [110] Moniz a affirmé que ces effets étaient transitoires et, [110] selon son évaluation publiée, le résultat pour ces vingt premiers patients était que 35%, ou sept cas, se sont améliorés de manière significative, 35% ont été quelque peu améliorés et les 30 autres % (six cas) étaient inchangés. Il n'y a eu aucun décès et il n'a pas considéré qu'un patient se soit détérioré après la leucotomie. [111]

Moniz a rapidement diffusé ses résultats à travers des articles dans la presse médicale et une monographie en 1936. [103] Au départ, cependant, la communauté médicale est apparue hostile à la nouvelle procédure. [112] Le 26 juillet 1936, un de ses assistants, Diogo Furtado, fait une présentation à la réunion parisienne de la Société Médico-Psychologique sur les résultats de la deuxième cohorte de patients leucotomisés par Lima. [103] Sobral Cid, qui avait fourni à Moniz la première série de patients pour leucotomie de son propre hôpital à Lisbonne, a assisté à la réunion et a dénoncé la technique, [112] déclarant que les patients qui avaient été renvoyés à ses soins après l'opération étaient "diminués" et avaient subi une "dégradation de la personnalité".[113] Il a également affirmé que les changements que Moniz a observés chez les patients étaient plus correctement attribués au choc et au traumatisme cérébral, et il a ridiculisé l'architecture théorique que Moniz avait construite pour soutenir la nouvelle procédure en tant que "mythologie cérébrale". [113] Lors de la même réunion, le psychiatre parisien, Paul Courbon, a déclaré qu'il ne pouvait pas cautionner une technique chirurgicale qui s'appuierait uniquement sur des considérations théoriques plutôt que sur des observations cliniques. [114] Il a également estimé que la mutilation d'un organe ne pouvait pas améliorer sa fonction et que les blessures cérébrales causées par la leucotomie risquaient le développement ultérieur de méningite, d'épilepsie et d'abcès cérébraux. [115] Néanmoins, le traitement chirurgical réussi de Moniz chez 14 patients sur 20 a conduit à l'adoption rapide de la procédure à titre expérimental par des cliniciens individuels dans des pays tels que le Brésil, Cuba, l'Italie, la Roumanie et les États-Unis au cours des années 1930. [116]

Leucotomie italienne Modifier

Pendant le reste des années 1930, le nombre de leucotomies pratiquées dans la plupart des pays où la technique a été adoptée est resté assez faible. En Grande-Bretagne, qui fut plus tard un centre majeur de leucotomie, [n 14] seulement six opérations avaient été réalisées avant 1942. [119] En général, les médecins qui tentaient la procédure adoptaient une approche prudente et peu de patients étaient leucotomisés avant les années 1940. Les neuropsychiatres italiens, qui étaient généralement des adopteurs précoces et enthousiastes de la leucotomie, ont été exceptionnels en évitant un cours aussi graduel. [55]

La leucotomie a été signalée pour la première fois dans la presse médicale italienne en 1936 et Moniz a publié un article en italien sur la technique l'année suivante. [55] En 1937, il a été invité en Italie pour démontrer la procédure et pendant une période de deux semaines en juin de la même année, il a visité des centres médicaux à Trieste, Ferrara et un près de Turin - l'hôpital Racconigi - où il a instruit son collègues neuropsychiatriques italiens sur leucotomie et a également supervisé plusieurs opérations. [55] La leucotomie a été présentée lors de deux conférences psychiatriques italiennes en 1937 et au cours des deux années suivantes, une vingtaine d'articles médicaux sur la psychochirurgie de Moniz ont été publiés par des cliniciens italiens basés dans des institutions médicales situées à Racconigi, Trieste, Naples, Gênes, Milan, Pise, Catane et Rovigo. [55] Le principal centre de leucotomie en Italie était l'hôpital Racconigi, où le neurochirurgien expérimenté Ludvig Puusepp a fourni un guide. [n 15] [55] Sous la direction médicale d'Emilio Rizzatti, le personnel médical de cet hôpital avait effectué au moins 200 leucotomies en 1939. [121] Les rapports de cliniciens basés dans d'autres institutions italiennes détaillaient un nombre significativement plus petit d'opérations de leucotomie. [55]

Des modifications expérimentales de l'opération de Moniz ont été introduites avec peu de retard par les médecins italiens. [122] Plus particulièrement, en 1937, Amarro Fiamberti, le directeur médical d'une institution psychiatrique à Varese, [123] a d'abord conçu la procédure transorbitale par laquelle les lobes frontaux étaient accessibles par les orbites. [122] La méthode de Fiamberti consistait à percer la fine couche d'os orbitaire au sommet de la cavité, puis à injecter de l'alcool ou du formol dans la substance blanche des lobes frontaux à travers cette ouverture. [124] En utilisant cette méthode, en substituant parfois un leucotome à une aiguille hypodermique, on estime qu'il a leucotomisé environ 100 patients dans la période précédant le déclenchement de la Seconde Guerre mondiale. [123] L'innovation de Fiamberti de la méthode de Moniz s'avérera plus tard inspirante pour le développement de Walter Freeman de la lobotomie transorbitale. [124]

Leucotomie américaine Modifier

La première leucotomie préfrontale aux États-Unis a été réalisée au George Washington University Hospital le 14 septembre 1936 par le neurologue Walter Freeman et son ami et collègue, le neurochirurgien James W. Watts. [125] Freeman avait rencontré Moniz pour la première fois au Deuxième Congrès international de neurologie organisé à Londres en 1935, où il avait présenté une exposition d'affiches du travail du neurologue portugais sur l'angiographie cérébrale. [126] Occupant par hasard un stand à côté de Moniz, Freeman, ravi de leur rencontre fortuite, a formé une impression très favorable de Moniz, remarquant plus tard son « pur génie ». [126] Selon Freeman, s'ils ne s'étaient pas rencontrés en personne, il est hautement improbable qu'il se serait aventuré dans le domaine de la psychochirurgie du lobe frontal. [127] L'intérêt de Freeman pour la psychiatrie était le prolongement naturel de sa nomination en 1924 en tant que directeur médical des laboratoires de recherche du Government Hospital for the Insane à Washington, connu familièrement sous le nom de St Elizabeth. [128] Un chercheur ambitieux et prodigieux, Freeman, qui a favorisé un modèle organique de causalité de la maladie mentale, a passé les années suivantes de manière exhaustive, mais finalement infructueuse, à rechercher une base neuropathologique de la folie. [129] Par hasard sur une communication préliminaire de Moniz sur la leucotomie au printemps 1936, Freeman a initié une correspondance en mai de cette année. Écrivant qu'il avait envisagé une chirurgie cérébrale psychiatrique auparavant, il a informé Moniz que, "ayant votre autorité, je m'attends à aller de l'avant". [130] Moniz, en retour, a promis de lui envoyer une copie de sa prochaine monographie sur la leucotomie et l'a exhorté à acheter un leucotome d'un fournisseur français. [131]

Dès réception de la monographie de Moniz, Freeman l'a examinée de manière anonyme pour le Archives de Neurologie et Psychiatrie. [131] Louant le texte comme étant celui dont "l'importance peut difficilement être surestimée", [131] il a résumé la justification de Moniz pour la procédure comme étant basée sur le fait que bien qu'aucune anomalie physique des corps cellulaires cérébraux n'était observable chez les malades mentaux, leur les interconnexions peuvent abriter une "fixation de certains modèles de relations entre divers groupes de cellules" et que cela a entraîné des obsessions, des délires et une morbidité mentale. [132] Tout en reconnaissant que la thèse de Moniz était inadéquate, pour Freeman, elle avait l'avantage de contourner la recherche de tissus cérébraux malades chez les malades mentaux en suggérant plutôt que le problème était un problème fonctionnel du câblage interne du cerveau où le soulagement pourrait être obtenu en couper les circuits mentaux problématiques. [132]

En 1937, Freeman et Watts adaptèrent la procédure chirurgicale de Lima et Moniz et créèrent le Technique Freeman-Watts, également connu sous le nom de Lobotomie préfrontale standard de Freeman-Watts, qu'ils appelaient la "méthode de précision". [133]

Lobotomie transorbitaire Modifier

La lobotomie préfrontale de Freeman-Watts nécessitait toujours de percer des trous dans le crâne, de sorte que la chirurgie a dû être effectuée dans une salle d'opération par des neurochirurgiens qualifiés. Walter Freeman pensait que cette chirurgie ne serait pas disponible pour ceux qui en avaient le plus besoin : les patients des hôpitaux psychiatriques publics qui n'avaient pas de salles d'opération, de chirurgiens ou d'anesthésie et des budgets limités. Freeman voulait simplifier la procédure afin qu'elle puisse être effectuée par des psychiatres dans des hôpitaux psychiatriques. [134]

Inspiré par les travaux du psychiatre italien Amarro Fiamberti, Freeman a conçu à un moment donné d'approcher les lobes frontaux par les orbites plutôt que par des trous percés dans le crâne. En 1945, il a pris un pic à glace [n 16] de sa propre cuisine et a commencé à tester l'idée sur des pamplemousses [n 17] et des cadavres. Cette nouvelle lobotomie « transorbitaire » impliquait de soulever la paupière supérieure et de placer la pointe d'un instrument chirurgical fin (souvent appelé orbitoclaste ou leucotome, bien que très différent du leucotome à boucle métallique décrit ci-dessus) sous la paupière et contre le haut de l'orbite. Un maillet a été utilisé pour conduire l'orbitoclaste à travers la fine couche d'os et dans le cerveau le long du plan de l'arête du nez, à environ 15 degrés vers la fissure interhémisphérique. L'orbitoclaste a été malté à 5 centimètres (2 pouces) dans le lobe frontal, puis pivoté de 40 degrés au niveau de la perforation de l'orbite de sorte que la pointe soit coupée vers le côté opposé de la tête (vers le nez). L'instrument a été remis en position neutre et a envoyé 2 centimètres supplémentaires (4 ⁄ 5 in) dans le cerveau, avant d'être pivoté d'environ 28 degrés de chaque côté, pour couper vers l'extérieur et à nouveau vers l'intérieur. (Dans une variation plus radicale à la fin de la dernière coupe décrite, la crosse de l'orbitoclaste a été forcée vers le haut de sorte que l'outil a coupé verticalement le long du côté du cortex de la fissure interhémisphérique la « Deep Frontal Cut ».) Toutes les coupes ont été conçues pour sectionner la matière fibreuse blanche reliant le tissu cortical du cortex préfrontal au thalamus. Le leucotome a ensuite été retiré et la procédure répétée de l'autre côté. [ citation requise ]

Freeman a réalisé la première lobotomie transorbitaire sur un patient vivant en 1946. Sa simplicité suggérait la possibilité de l'effectuer dans des hôpitaux psychiatriques dépourvus des installations chirurgicales requises pour la procédure plus ancienne et plus complexe. (Freeman a suggéré que, lorsque l'anesthésie conventionnelle n'était pas disponible, une thérapie par électrochocs soit utilisée pour rendre le patient inconscient.) en une simple procédure de "bureau". [137] Entre 1940 et 1944, 684 lobotomies ont été pratiquées aux États-Unis. Cependant, en raison de la fervente promotion de la technique par Freeman et Watts, ces chiffres ont fortement augmenté vers la fin de la décennie. En 1949, l'année de pointe pour les lobotomies aux États-Unis, 5 074 procédures ont été entreprises et, en 1951, plus de 18 608 personnes avaient été lobotomisées aux États-Unis. [138]

Aux États-Unis, environ 40 000 personnes ont été lobotomisées. En Angleterre, 17 000 lobotomies ont été effectuées, et les trois pays nordiques que sont le Danemark, la Norvège et la Suède avaient un chiffre combiné d'environ 9 300 lobotomies. [139] Les hôpitaux scandinaves ont lobotomisé 2,5 fois plus de personnes par habitant que les hôpitaux des États-Unis. [140] La Suède a lobotomisé au moins 4 500 personnes entre 1944 et 1966, principalement des femmes. Ce chiffre comprend les jeunes enfants. [141] En Norvège, il y avait 2 005 lobotomies connues. [142] Au Danemark, il y avait 4 500 lobotomies connues. [143] Au Japon, la majorité des lobotomies ont été pratiquées sur des enfants ayant des problèmes de comportement. L'Union soviétique a interdit la pratique en 1950 pour des raisons morales. [ citation requise ] En Allemagne, il n'a été joué que quelques fois. [144] À la fin des années 1970, la pratique de la lobotomie avait généralement cessé, bien qu'elle se soit poursuivie jusque dans les années 1980 en France. [145]

Dès 1944, un auteur de la Journal des maladies nerveuses et mentales a fait remarquer : « L'histoire de la lobotomie préfrontale a été brève et orageuse. Son cours a été parsemé à la fois d'une opposition violente et d'une acceptation servile et inconditionnelle. À partir de 1947, le psychiatre suédois Snorre Wohlfahrt a évalué les premiers essais, déclarant qu'il est « distinemment dangereux de leucotomiser les schizophrènes » et que la lobotomie était « encore trop imparfaite pour nous permettre, avec son aide, de lancer une offensive générale contre les cas chroniques de troubles mentaux. ", déclarant en outre que " la psychochirurgie n'a pas encore réussi à découvrir ses indications et contre-indications précises et les méthodes doivent malheureusement encore être considérées comme plutôt grossières et dangereuses à bien des égards. " [146] En 1948 Norbert Wiener, auteur de Cybernétique : ou le contrôle et la communication dans l'animal et la machine, a déclaré : « [L]a lobotomie préfrontale . a récemment eu une certaine vogue, probablement liée au fait qu'elle facilite la prise en charge de nombreux patients. Permettez-moi de remarquer au passage que les tuer facilite encore leur prise en charge. " [147]

Les inquiétudes concernant la lobotomie n'ont cessé de croître. Le psychiatre soviétique Vasily Gilyarovsky a critiqué la lobotomie et l'hypothèse de localisation mécaniste du cerveau utilisée pour effectuer la lobotomie :

On suppose que la section de substance blanche des lobes frontaux altère leur connexion avec le thalamus et élimine la possibilité d'en recevoir des stimuli qui conduisent à l'irritation et, dans l'ensemble, perturbent les fonctions mentales. Cette explication est mécaniste et remonte au localisationnisme étroit caractéristique des psychiatres d'Amérique, d'où nous a été importée la leucotomie. [148]

L'URSS a officiellement interdit la procédure en 1950 [149] à l'initiative de Gilyarovsky. [150] Les médecins de l'Union soviétique ont conclu que la procédure était « contraire aux principes d'humanité » et « « par la lobotomie », une personne aliénée est transformée en idiot ». [151] Dans les années 1970, de nombreux pays avaient interdit la procédure, de même que plusieurs États américains. [152]

En 1977, le Congrès américain, sous la présidence de Jimmy Carter, a créé le Comité national pour la protection des sujets humains de la recherche biomédicale et comportementale pour enquêter sur les allégations selon lesquelles la psychochirurgie - y compris les techniques de lobotomie - a été utilisée pour contrôler les minorités et restreindre les droits individuels. Le comité a conclu qu'une psychochirurgie extrêmement limitée et correctement effectuée pourrait avoir des effets positifs. [153]

Au début du 21e siècle, des appels ont été lancés pour que la Fondation Nobel annule le prix qu'elle a décerné à Moniz pour le développement de la lobotomie, une décision qui a été qualifiée d'erreur de jugement stupéfiante à l'époque et dont la psychiatrie pourrait encore avoir besoin d'apprendre, mais la Fondation a refusé d'agir et a continué d'héberger un article défendant les résultats de la procédure. [154] [5]

    , sœur du président John F. Kennedy, a subi une lobotomie en 1941 qui l'a laissée inapte et institutionnalisée pour le reste de sa vie. [155] a écrit un mémoire de sa découverte tardive qu'il avait été lobotomisé en 1960 à l'âge de 12 ans. [156]
  • L'auteur et poète néo-zélandais Janet Frame a reçu un prix littéraire en 1951 la veille d'une lobotomie programmée, et elle n'a jamais été réalisée. [157] , violoniste et compositeur polonais, a reçu un diagnostic de schizophrénie et est décédé à l'âge de 26 ans des suites d'une lobotomie. [158]
  • La peintre moderniste suédoise Sigrid Hjertén est décédée des suites d'une lobotomie en 1948. [159]
  • La sœur aînée du dramaturge américain Tennessee Williams, Rose, a subi une lobotomie qui l'a laissée inapte à vie. L'épisode aurait inspiré des personnages et des motifs dans certaines de ses œuvres. [160]
  • On dit souvent que lorsqu'une tige de fer a été accidentellement enfoncée dans la tête de Phineas Gage en 1848, cela a constitué une « lobotomie accidentelle », ou que cet événement a en quelque sorte inspiré le développement de la lobotomie chirurgicale un siècle plus tard. Selon la seule étude de la longueur d'un livre de Gage, une enquête minutieuse ne révèle aucun lien de ce type. [161]
  • En 2011, Daniel Nijensohn, neurochirurgien d'origine argentine à Yale, a examiné les radiographies d'Eva Perón et a conclu qu'elle avait subi une lobotomie pour le traitement de la douleur et de l'anxiété au cours des derniers mois de sa vie. [162]

Les lobotomies ont été présentées dans plusieurs présentations littéraires et cinématographiques qui reflétaient à la fois l'attitude de la société envers la procédure et, parfois, la modifiaient. Les écrivains et les cinéastes ont joué un rôle central dans le retour de l'opinion publique contre la procédure. [5]


Remapper le cerveau

Comment le cerveau aveugle supporte-t-il un traitement aussi supérieur ? Il existe des preuves substantielles du recrutement du cortex dit « visuel » pour soutenir ces améliorations comportementales (Pasqualotto & amp Proulx, 2012). Un certain nombre d'études de neuroimagerie ont découvert que le lobe occipital des individus aveugles est actif pendant le traitement des stimuli auditifs, haptiques et olfactifs (Amedi, Raz, Pianka, Malach, & Zohary, 2003 Kupers & Ptito, 2011 Rombaux et al., 2010) . Ces corrélations impliquent que les capacités améliorées des individus aveugles résultent soit du recrutement du cortex visuel autrement dormant par les modalités restantes, soit peut-être du démasquage de l'activité corticale visuelle qui soutient normalement de telles fonctions. L'activité cérébrale corrélée dans les études de neuroimagerie a été étayée par les résultats d'études sur des lésions à court terme (induites par une stimulation magnétique transcrânienne) et des lésions réelles (dommages causés par l'accident vasculaire cérébral) du lobe occipital, qui montrent que l'activité dans le cortex visuel est causalement pertinent (Amedi, Floel, Knecht, Zohary, & Cohen, 2004 Merabet et al., 2009).

Le recrutement des aires visuelles s'est avéré plus fréquent chez les personnes aveugles de naissance. Cela suggère que l'apparition précoce de la cécité produit soit une réorganisation cérébrale étendue, soit démasque plus efficacement le traitement non visuel qui a lieu dans des zones prétendument visuelles. L'hypothèse la plus probable est celle du démasquage d'une activité préexistante. Ce point de vue est corroboré par les effets produits par le bandage des yeux à long terme des participants voyants (Proulx, Stoerig, Ludowig, & Knoll, 2008) qui commencent à présenter des activations cérébrales et des répertoires comportementaux équivalents aux personnes aveugles (Merabet et al., 2008). En fait, un changement aussi rapide chez les participants adultes n'est pas compatible avec l'établissement de nouvelles connexions neuronales, qui doivent donc déjà être en place.

Cet ensemble de résultats soutient l'idée d'une organisation métamodale (Pascual-Leone & Hamilton, 2001) ou supramodale (Kupers, Pietrini, Ricciardi, & Ptito, 2011 Kupers & Ptito, 2011 Ricciardi & Pietrini, 2011) du cerveau (Proulx, Brown, Pasqualotto, & Meijer, 2012). Bien que le cerveau ait traditionnellement été subdivisé en régions à dominance sensorielle, un point de vue émergent est que les zones cérébrales seraient mieux classées par les calculs et les tâches qui sont effectuées. Ces résultats ont également été soutenus par des preuves convergentes en utilisant la substitution sensorielle. Fait intéressant, la représentation sensorielle neutre de la forme a été validée avec des dispositifs de sous-station sensorielle qui utilisent spécifiquement la stimulation des organes sensoriels qui ne sont normalement pas utilisés à des fins de reconnaissance de forme ou de navigation spatiale, comme l'audition avec les oreilles (Proulx et al., 2008) et sentir avec la langue (Proulx & Stoerig, 2006).


Au-delà de la perception visuelle, auditive et haptique des mouvements : hMT+ est activé par la stimulation électrotactile de la langue chez les personnes voyantes et aveugles congénitales

Le cortex temporal moyen sensible au mouvement (complexe hMT+) répond également à la stimulation du mouvement non visuelle transmise par les modalités tactiles et auditives, à la fois chez les personnes voyantes et chez les personnes aveugles congénitales. Cela indique que hMT+ est vraiment sensible aux informations liées au mouvement, indépendamment de l'expérience visuelle et de la modalité sensorielle par laquelle ces informations sont transmises au cerveau. Ici, nous avons déterminé si le complexe hMT+ répond à la perception du mouvement en soi, c'est-à-dire le mouvement non perçu par les modalités visuelles, haptiques ou auditives.À l'aide de l'imagerie par résonance magnétique fonctionnelle (IRMf), nous avons étudié les réponses cérébrales de huit volontaires aveugles congénitalement et neuf voyants qui avaient été formés à l'utilisation de l'unité d'affichage de la langue (TDU), un dispositif de substitution sensorielle qui convertit les informations visuelles en impulsions électrotactiles délivrées à la langue. , pour résoudre une tâche de discrimination de mouvement tactile. Les stimuli consistaient en des points statiques, des points se déplaçant de manière cohérente ou des points se déplaçant dans des directions aléatoires. Les deux groupes ont appris la tâche au même rythme et activé le complexe hMT+ lors de la discrimination tactile du mouvement, bien qu'à des emplacements anatomiques différents. De plus, les sujets congénitalement aveugles ont montré des activations supplémentaires dans la voie corticale extrastriée dorsale. Ces résultats étendent les données antérieures à l'appui de l'organisation fonctionnelle supramodale du complexe hMT+ en montrant que cette aire corticale traite les informations liées au mouvement en soi, c'est-à-dire des stimuli de mouvement qui ne sont pas de nature visuelle et qui sont administrés aux structures corporelles qui, en humains, ne sont pas principalement consacrés à la perception du mouvement ou à la localisation spatiale, comme la langue. Conformément aux études précédentes, les activations différentielles entre les individus voyants et aveugles congénitales indiquent que le manque de vision conduit à des réarrangements fonctionnels de ces zones corticales supramodales.


Un domaine en plein essor

Pour illustrer à quel point la neuroesthétique a récemment gagné du terrain en tant que domaine d'enquête sérieux, considérons Ina Kodra '18 : en deuxième année, Kodra a tenté de déclarer une concentration spéciale en neuroesthétique, mais sa demande a été rejetée. À l'époque, un tel plan d'étude comportait trop d'éléments disparates pour être à proprement parler une concentration. Aujourd'hui, quelques années plus tard, des étudiants comme Kodra sont invités à repousser les limites entre l'art et la science.

Si la neuroesthétique prend son essor dans la communauté scientifique, elle a plus de mal à s'imposer dans le monde de l'art. Une exception majeure à cette tendance est Tedi E. Asher, neuroscientifique en résidence au Peabody Essex Museum de Salem, MA. Son poste de deux ans est financé par une subvention de la Barr Foundation, une organisation à but non lucratif basée à Boston qui soutient la recherche dans divers domaines, y compris les arts.

"L'objectif principal de l'initiative des neurosciences au PEM est essentiellement d'améliorer l'engagement des visiteurs", a déclaré Asher. « Donc, pour créer des expériences au sein des galeries qui sont plus significatives pour nos visiteurs et les impliquer davantage dans l'absorption des œuvres d'art. » Six mois après le début de son nouveau rôle, Asher a déclaré qu'il était trop tôt pour dire qu'elle avait encore fait des découvertes, mais elle s'est efforcée de trouver des moyens d'appliquer la littérature neuroscientifique existante à l'environnement muséal.

Un concept qu'Asher a exploré est la notion de saillance. Comme elle l'a expliqué : « Lorsqu'un élément d'une scène ou d'une image ressort de l'arrière-plan, il peut donc être d'une couleur différente, d'une forme différente, il peut se déplacer dans une direction différente du reste de l'image. scène, on dit que ces éléments ont de l'importance. S'appuyant sur cette idée, Asher travaille à la création de « cartes de saillance », qui illustrent les parties d'une image les plus susceptibles d'attirer l'attention. En comprenant comment les visiteurs du musée regardent réellement l'art, Asher espère rendre les pièces de PEM plus faciles à parcourir et à apprécier.

Bien que le PEM soit le premier musée à embaucher un neuroscientifique en résidence, d'autres institutions ont exploré le potentiel artistique de la recherche scientifique. La Tate Britain, un musée de Londres, a présenté en 2015 une exposition intitulée Tate Sensorium. Reconnaissant que la vue n'est qu'un des sens, le musée a associé quatre peintures de sa collection à une variété de goûts, d'odeurs, de sons et de sensations haptiques. Dans le cadre de l'exposition, les visiteurs portaient des bracelets spécialisés pour mesurer leur transpiration, utilisés comme indication de leur excitation. De cette façon, la Tate a tenté d'utiliser les dernières recherches scientifiques et technologiques pour aider à l'appréciation de l'art et à mesurer son effet.

Des musées et des galeries comme la Tate et le PEM sont peut-être parmi les premiers à intégrer les découvertes des neurosciences dans leurs expositions, mais ils ne sont certainement pas les derniers. À mesure que la neuroesthétique prend son envol et que davantage d'attention et de recherche lui sont consacrées, la frontière entre l'art et la science peut devenir de plus en plus floue. Bien que Zeki et Etcoff puissent voir cela comme un développement positif, tous ne sont pas aussi optimistes à propos de cette perspective.


Structurer en tête

La caractéristique anatomique la plus évidente de notre cerveau est la surface ondulante du cerveau - les fentes profondes sont appelées sillons et ses plis sont des gyri. Le cerveau est la plus grande partie de notre cerveau et est en grande partie composé des deux hémisphères cérébraux. Il s'agit de la structure cérébrale la plus récente sur le plan de l'évolution, traitant d'activités cérébrales cognitives plus complexes.

On dit souvent que l'hémisphère droit est plus créatif et émotionnel et que le gauche s'occupe de logique, mais la réalité est plus complexe. Néanmoins, les côtés ont certaines spécialisations, la gauche traitant de la parole et du langage, la droite de la conscience spatiale et corporelle.

Voir notre Graphique interactif pour en savoir plus sur la structure du cerveau

D'autres divisions anatomiques des hémisphères cérébraux sont le lobe occipital à l'arrière, consacré à la vision, et le lobe pariétal au-dessus, traitant du mouvement, de la position, de l'orientation et du calcul.

Derrière les oreilles et les tempes se trouvent les lobes temporaux, traitant de la compréhension du son et de la parole et de certains aspects de la mémoire. Et au premier plan se trouvent les lobes frontaux et préfrontaux, souvent considérés comme les régions les plus développées et les plus «humaines», traitant de la pensée, de la prise de décision, de la planification, de la conceptualisation, du contrôle de l'attention et de la mémoire de travail les plus complexes. Ils traitent également des émotions sociales complexes telles que le regret, la moralité et l'empathie.

Une autre façon de classer les régions est en cortex sensoriel et cortex moteur, contrôlant respectivement les informations entrantes et le comportement sortant.

Sous les hémisphères cérébraux, mais toujours désigné comme faisant partie du cerveau antérieur, se trouve le cortex cingulaire, qui gère le comportement directeur et la douleur. Et en dessous se trouve le corps calleux, qui relie les deux côtés du cerveau. D'autres zones importantes du cerveau antérieur sont les noyaux gris centraux, responsables du mouvement, de la motivation et de la récompense.


Questions et intérêts de recherche

Comment voit-on ? Qu'en est-il de la structure en constante évolution de la lumière frappant nos yeux mobiles qui nous permet de capter des informations sur l'environnement qui nous entoure ? Qu'en est-il de notre cerveau et son activité neuronale nous permet de voir tant de choses et sans effort ? Comment pouvons-nous contrôler nos yeux et notre corps pour rechercher des informations et agir dans le monde physique ? Ce ne sont là que quelques-unes des grandes questions qui poussent les chercheurs, dont moi-même, à étudier la vision. Nous trouvons que c'est un sujet fascinant car il semble à la fois si accessible et pourtant si insaisissable. La vision est immédiate et évidente, à tel point qu'elle semble ne nécessiter aucune explication. Pourtant, si nous pensons à la façon dont un robot imaginaire pourrait simuler un humain ou à la façon dont les circuits neuronaux pourraient médiatiser la perception visuelle consciente, nous réalisons à quel point le fossé est profond entre ce que nous savons sur le cerveau et les faits quotidiens sur la perception visuelle.

Les scientifiques ont du mal à s'attaquer directement à des questions aussi vastes et peu l'ont fait avec succès. La plupart d'entre nous trouvent plus fructueux d'étudier des domaines particuliers dans l'espoir de mieux apercevoir des réponses partielles à des questions aussi vastes. Nous apprenons de la neuroanatomie que le territoire du cerveau consacré à la vision est immense, environ 50 % chez les primates non humains et presque autant chez les humains. Cela suggère une énormité de la vision qui doit encore être pleinement reconnue. En termes de puissance cérébrale pure, la vision est comparable à l'ensemble du reste du cerveau réuni. En tant que tel, nous devons réaliser que la vision n'est pas simplement une chose, qu'il existe probablement de nombreuses fonctions visuelles. Nous commençons tout juste à comprendre que voir et se déplacer dans le monde nécessite de nombreux processus inconnus que nous devons encore discerner. Certaines de ces fonctions deviennent évidentes avec des lésions cérébrales, par exemple, lorsqu'un individu ne peut pas voir le mouvement ou ne peut pas reconnaître les visages.

Ma propre stratégie de recherche a été d'isoler une variété de fonctions visuelles et de les étudier en détail. Pour ce faire, je me suis fortement appuyé sur la discipline de la psychophysique visuelle qui constitue un ensemble étonnamment puissant de concepts et de procédures. Au fil des ans, j'ai eu le privilège de travailler avec des collègues et des étudiants exceptionnels. De temps en temps, nous avons eu la chance de faire une véritable nouvelle découverte ou de mieux comprendre comment les pièces du puzzle visuel s'emboîtent. Récemment, j'ai travaillé sur la représentation des surfaces visuelles, le déploiement de l'attention visuelle et le rôle de l'attention dans l'initiation des mouvements oculaires. Plus récemment, je me suis intéressé à la perception et à la reconnaissance des visages. Je m'intéresse également à l'utilisation de tests psychophysiques visuels pour évaluer les troubles neurologiques et psychiatriques. À l'avenir, j'espère que l'étude des visages nous aidera à comprendre la perception sociale et la cognition, en éclairant la façon dont nous représentons les autres humains à un niveau non verbal.


Pourquoi fermer les yeux (et désactiver d'autres sens) peut vous aider à vous souvenir

Lorsque vous essayez de vous souvenir de quelque chose, il y a de fortes chances que vous le regardiez en l'air ou que vous fermiez les yeux. Cela peut sembler arbitraire, mais comme l'explique le chercheur en sciences cognitives Art Markman dans Psychology Today, couper votre vision est en fait très utile lorsque vous essayez de déterrer des informations dans votre cerveau.

Alors pourquoi est-ce le cas ? Votre cerveau traite une tonne d'informations et la vision est un apport énorme. Déchiffrer tout ce que vous voyez peut prendre beaucoup de puissance de traitement de votre esprit et donc des informations moins complexes, comme le ciel ou le plafond ou l'ombre de vos paupières, signifie qu'elles sont plus disponibles pour la réflexion. Ceci est particulièrement important lorsque vous essayez de vous rappeler des souvenirs visuels. Markman explique :

[S]i vous joignez vos mains derrière votre tête, la majeure partie de la zone occupée par vos mains reflète la quantité de cerveau qui est consacrée à donner un sens aux informations qui entrent par vos yeux. Ces mêmes zones du cerveau sont également impliquées dans les souvenirs visuels de choses que vous avez vues dans le passé. Il est logique que le cerveau réutilise les zones consacrées à la vision pour aider la mémoire à obtenir des informations visuelles.

La même idée s'applique également aux autres sens. Si vous essayez de vous souvenir d'un son ou de la voix de quelqu'un, des bruits complexes peuvent rendre le processus plus difficile. C'est pourquoi, par exemple, vous pouvez avoir du mal à écrire lorsque les autres parlent. Si vous entendez une voix dans votre tête pendant que vous tapez une phrase, vous aurez du mal à l'entendre lorsque votre cerveau analyse déjà le discours existant autour de vous. Fondamentalement, lorsque vous avez besoin de vous souvenir de quelque chose, isolez le sens pertinent. Cela vous aidera à vous concentrer et à trouver les informations que vous recherchez.

Vous pouvez suivre Adam Dachis, l'auteur de cet article, sur Twitter , Google+ et Facebook . Twitter est également le meilleur moyen de le contacter.


Le &lsquoBrain Training&rsquo fonctionne-t-il réellement ?

S'il y avait une application sur votre téléphone qui pourrait améliorer votre mémoire, l'essayeriez-vous ? Qui voudrait une meilleure mémoire ? Après tout, nos souvenirs sont fragiles et peuvent être altérés par des maladies, des blessures, des problèmes de santé mentale et, de manière plus aiguë pour nous tous, le vieillissement.

Une industrie de plusieurs milliards de dollars pour l'entraînement cérébral capitalise déjà sur ce besoin perçu en fournissant une abondance d'applications pour téléphones et tablettes qui offrent des défis mentaux facilement accessibles et relativement peu coûteux.

Nous trois, et bien d'autres, avons prouvé que des exercices soigneusement formulés peuvent améliorer les compétences cognitives de base et même conduire à de meilleurs scores aux tests de QI standard. Dans le même temps, l'entraînement cérébral est devenu une entreprise profondément controversée. Certains chercheurs, dont l'un d'entre nous, ont exprimé de profondes réserves sur sa fiabilité et sa validité. Il y a même eu une déclaration de consensus publiée remettant en cause l'entraînement cérébral, qui, à son tour, a entraîné une contre-réponse de la part des chercheurs qui l'ont défendu.

Dans le cas de l'entraînement de la mémoire, par exemple, les résultats des études ont été incohérents, et même les approches méta-analytiques qui combinent les données entre les études aboutissent à des conclusions différentes. Sans aucun doute, il existe une énorme quantité d'hyperboles entourant le domaine, de nombreuses entreprises exagérant les avantages potentiels de l'utilisation de leurs applications.

Les principales controverses portent sur la mesure dans laquelle la pratique de ces compétences entraîne des avantages réels qui ont des conséquences sur votre vie quotidienne. Se souvenir d'un nombre croissant de chiffres vous aide-t-il à vous souvenir de prendre vos médicaments, à mieux réussir un examen scolaire, à vous souvenir du nom de la personne que vous avez rencontrée hier ou même à faire de meilleurs choix de vie ?

Certains scientifiques se demandent si cela est même possible. D'autres soutiennent que nous devrions considérer le cerveau comme nos muscles, qui peuvent être exercés et tonifiés. Dans cette analogie, les défis quotidiens, même exigeants tels que la lecture d'un article de journal détaillé ou la résolution d'un problème d'algèbre, pourraient ne pas être suffisamment difficiles pour fournir un entraînement adéquat pour le cerveau.

Tout comme les athlètes s'engagent dans la force et le conditionnement en exerçant à plusieurs reprises certains groupes musculaires et leurs systèmes respiratoire et cardiovasculaire, la répétition ciblée d'exercices de mémoire peut être la clé pour renforcer et conditionner nos processus de mémoire. Les applications d'entraînement de la mémoire nécessitent le suivi d'un grand nombre d'objets pendant que l'on est distrait par une tâche secondaire (comme faire des calculs mentaux ou naviguer dans le paysage d'un jeu). Ce degré de difficulté et de répétition, cependant, peut être rare dans la vie quotidienne, ce qui est le vide que les applications de mémoire visent à combler.

Si l'entraînement cérébral fonctionne, le domaine est très prometteur pour aider les personnes atteintes de déficiences cognitives et pour aider les personnes qui se remettent d'un cancer ou peut-être même de COVID-19. Une certaine affirmation du potentiel de l'entraînement cognitif pourrait être observée dans l'approbation récente de la FDA d'un jeu d'entraînement cérébral pour traiter le TDAH.

Les critiques soutiennent cependant que, bien que le concept soit attrayant, les preuves globales ne suffisent pas à démontrer que les processus cérébraux fondamentaux peuvent être réellement améliorés. Malgré ce que de nombreuses applications et entreprises de formation cérébrale diront à leurs clients, les scientifiques n'ont pas découvert les ingrédients clés qui rendent une intervention efficace, ni les recettes qui répondraient le mieux aux divers besoins de ceux qui recherchent de l'aide. De plus, la plupart des applications disponibles pour les consommateurs n'ont pas du tout subi de validation scientifique.

Alors, comment concilier les preuves mitigées sur le terrain et en même temps couper à travers le battage médiatique ? Nous suggérons qu'une partie de la confusion peut résulter du fait que peu de considération a été accordée à qui bénéficierait le plus des applications d'entraînement cérébral soutenues par des études de recherche. Sera-ce seulement ceux qui ont une forme de trouble de la mémoire, ou cela peut-il également aider ceux qui souhaitent s'améliorer même s'ils fonctionnent déjà relativement bien ?

Bien que le jury soit encore absent, il existe des preuves que la formation à court terme de la mémoire de travail peut apporter des avantages à des individus relativement performants, tels que les étudiants. Pour l'entraînement visuel, il existe des suggestions dont même les athlètes d'élite peuvent en bénéficier. Pourtant, que l'on ait ou non un trouble de la mémoire, il est probable que, comme un régime ou un exercice, l'entraînement cérébral ne profite pas à tout le monde de la même manière.

Nous suggérons qu'une grande partie du débat, et le manque de consensus, tourne autour des mauvaises questions scientifiques posées. Plus précisément, le paradigme actuel est dominé par la santé de la population et les méthodes de recherche consacrées aux moyennes de groupe, alors que ce que la plupart d'entre nous veulent savoir, c'est si quelque chose nous convient.

Pour illustrer le problème, considérons la situation hypothétique dans laquelle une personne sur 10 tire un avantage considérable d'une application d'entraînement de la mémoire particulière. Dans le modèle de santé de la population, les résultats sont calculés en moyenne pour toutes les personnes qui ont bénéficié de l'intervention, et ainsi le bénéfice profond ressenti par quelques-uns sera effacé par l'absence d'effet sur le plus grand nombre.

Répétez cette expérience sur un certain nombre d'applications d'entraînement de la mémoire différentes, chacune fournissant potentiellement des effets positifs pour différents sous-groupes, et la collection d'avantages ressentis par certaines personnes sera masquée par les méthodes de recherche inappropriées appliquées. Le modèle de santé de la population, bien que très approprié lorsque ses hypothèses sont confirmées, ne s'applique tout simplement pas bien dans une population diversifiée où différentes personnes peuvent interagir avec l'application de formation de différentes manières et donc présenter une gamme d'avantages.

Pour surmonter ces limitations, notre équipe s'appuie actuellement sur la puissance de la science citoyenne. Semblable à une étude à grande échelle au Royaume-Uni (Brain Test Britain, promu par l'Université de Cambridge et la BBC), nous cherchons à recruter des milliers de participants pour nous aider à découvrir les mérites potentiels de l'entraînement de la mémoire. Mais contrairement à Brain Test Britain, une simple question de qu'il s'agisse l'entraînement cérébral fonctionne, nous cherchons à engager la population américaine dans un nouveau défi à tester pourquoi et pour qui l'entraînement cérébral fonctionne, et dans quelles conditions.

Pour atteindre notre objectif, nous avons lancé une nouvelle étude financée par les National Institutes of Health qui vise à recruter 30 000 volontaires pour participer à une étude d'entraînement de la mémoire qui compare plusieurs approches pour entraîner la mémoire de travail. L'étude utilisera un ensemble commun de mesures d'évaluation pour évaluer les gains potentiels de formation, et elle se concentrera sur les différences individuelles. Toute personne âgée de plus de 18 ans peut rejoindre notre étude et contribuer à générer les données nécessaires pour changer le débat et aller de l'avant avec un nouveau paradigme d'entraînement cérébral de précision. Si vous souhaitez participer à notre essai, rendez-vous sur le site d'inscription de l'Université de Californie, Riverside.

Ce n'est qu'en incluant un très grand nombre de participants et en évaluant comment les différentes approches de formation et leurs résultats se rapportent à des individus particuliers que nous pourrons résoudre ces controverses une fois pour toutes. Il se peut que la plupart des avantages se retrouvent chez ceux qui souffrent d'une maladie qui altère leurs capacités cognitives, ou nous pouvons constater que les personnes hautement fonctionnelles peuvent bénéficier d'un entraînement.

Nous tenterons de résoudre cette énigme en appliquant des modèles statistiques pour examiner comment les réponses de base aux questionnaires et aux évaluations prédisent les gains que chaque participant peut retirer des différents types de formation.En cas de succès, l'étude nous aidera à déterminer quels facteurs peuvent être les plus révélateurs de la probabilité qu'un individu donné bénéficie de l'entraînement de la mémoire, ainsi que quelle forme d'entraînement peut être la meilleure pour cette personne.

Notre objectif est d'éviter une approche unique. Au lieu de cela, nous voulons faire avancer un nouveau modèle basé sur la prémisse que les gens sont divers dans leurs forces cognitives et leurs besoins, et ont donc besoin du type d'interventions qui les servirait le mieux.


Université de Rochester

GRAND ANGLE : À l'aide d'un écran semi-circulaire de 7 pieds de haut qui englobe tout le champ de vision d'un spectateur, David Knill et d'autres scientifiques de Rochester explorent comment le cerveau donne un sens aux informations impliquant la vision périphérique et d'autres processus cognitifs de perception. (Photo : Adam Fenster)

Au moment où James Risen est arrivé à l'hôtel de Napa Valley que sa femme avait réservé pour célébrer son 60e anniversaire, il savait que quelque chose n'allait vraiment pas. Sans avertissement ni douleur, le côté droit de son champ de vision était devenu vide, comme si quelqu'un avait tiré un rideau sur la zone.

«Je ne pouvais voir qu'environ la moitié de ma vision normale», se souvient-il. "C'était comme ne pas avoir une vue d'ensemble."

Comme il l'apprendra bientôt des médecins des services d'urgence, « Le problème n'était pas avec mes yeux. Il y avait un problème avec mon cerveau.

Risen avait subi un accident vasculaire cérébral qui a endommagé son cortex visuel, provoquant la cécité du côté droit des deux yeux. Il s'agit d'une complication courante, estimée à affecter jusqu'à 50 pour cent des personnes victimes d'un AVC, et extrêmement désorientante.

"Chaque fois que j'ouvrais les yeux, cela me rappelait que j'avais un grave problème visuel", dit Risen. Lorsqu'il marchait dans des zones surpeuplées, les gens apparaissaient simplement, comme de nulle part, car il n'avait aucune capacité à détecter des objets ou des mouvements périphériquement du côté droit. Faire une randonnée dans les bois était hors de question. «Je pourrais me heurter à un arbre ou marcher dans un nid-de-poule», dit-il.

Le message qu'il a reçu de sa première visite chez un neuro-ophtalmologiste est encore plus troublant. Les cellules cérébrales qui traitent cette partie de sa vision étaient mortes et les médecins ne pouvaient rien faire pour restaurer sa vue. On lui a conseillé de s'adapter : d'arrêter de conduire, de vendre sa maison et de déménager au centre-ville où il pourrait prendre un bus pour se rendre à son travail d'administrateur d'un cabinet d'avocats à Columbus, Ohio.

Pour Risen, la perte d'indépendance était « effrayante ». « J'étais très déprimé.

Peu de temps après, Risen a participé à un programme de recherche universitaire sur la vision humaine et a entamé le long chemin du rétablissement. Dans le processus, il a également fait partie du nombre croissant de découvertes à Rochester qui contribuent à remodeler notre compréhension de la façon dont le cerveau «voit». À l'aide d'outils d'enquête allant d'un environnement de réalité virtuelle de la taille d'une pièce à des sondes électroniques microscopiques, les scientifiques explorent comment notre cerveau est capable de transformer le fouillis d'entrées sensorielles concurrentes et changeantes de nos yeux en une perception tridimensionnelle riche et cohérente que nous savoir que la vue. Leurs connaissances aident à mieux apprécier la plasticité du cerveau et mènent au développement de thérapies visuelles qui changent la vie.

Il n'est pas surprenant que Risen atterrisse à Rochester pour les dernières découvertes en matière de vision. Le surnom de la ville est le World's Image Center et Rochester abrite Kodak, Bausch & Lomb et Xerox, des sociétés spécialisées dans l'ingénierie optique et les systèmes optiques, dont beaucoup sont développés pour une utilisation avec l'œil. Aujourd'hui, alors même que ces sociétés réduisent leurs effectifs, la ville abrite le siège de plus de 80 entreprises axées sur l'optique et l'imagerie.

PARALLAXE PARADOX : Greg DeAngelis travaille à identifier les zones du cerveau responsables de la parallaxe du mouvement – ​​notre capacité à discerner notre relation tridimensionnelle avec les objets qui nous entourent en fonction de notre propre mouvement et de notre distance par rapport aux objets. (Photo : Adam Fenster)

Depuis près d'un demi-siècle, le Center for Visual Science de l'Université a associé cette expertise locale aux compétences de chercheurs de disciplines disparates. Le fondateur du Centre, Robert Boynton, était professeur à la fois de psychologie et d'optique, deux domaines très différents fusionnés sous la rubrique de la vision. Le centre rassemble 32 membres du corps professoral des domaines de l'ingénierie, de l'optique, de la neurologie, de l'ophtalmologie, des sciences du cerveau et cognitives, de la neurobiologie et de l'anatomie. Grâce au financement du National Eye Institute et de l'Office of Naval Research, le centre donne accès à des installations expérimentales partagées et à des experts techniques comme Keith Parkins, l'un de ses programmeurs seniors qui crée du code informatique pour tout, des écrans 3D aux visiocasques. pour voir à travers les systèmes de réalité augmentée.

"C'est une sorte de belle synergie entre la science fondamentale, l'ingénierie et la médecine, les trois", déclare David Williams, directeur du centre depuis 21 ans et doyen de la recherche pour les arts, les sciences et l'ingénierie. « Il existe en fait un fossé culturel assez important entre ces entreprises », dit-il. Dans la plupart des universités, les ingénieurs auraient peu d'expérience avec les patients, et les médecins, peu d'exposition à la conception d'équipement et à la science fondamentale. Mais à travers le centre, les cliniciens, les chercheurs et les concepteurs se rencontrent régulièrement pour partager des résultats expérimentaux, des idées et parfois même des participants à l'étude.

Le centre est un leader reconnu dans la recherche sur la vision avec ses membres publiant dans des revues comme La nature, Biologie actuelle, Neurosciences naturelles, et le Journal des neurosciences. Si les résultats qui découlent de cette collaboration confirment une chose, c'est que les capacités que nous tenons pour acquises, comme la vue, la perception de la profondeur et la coordination œil-main, font partie des tâches les plus complexes sur le plan biologique que nous entreprenons en tant qu'êtres humains.

« Plus de 50 pour cent du cortex, la surface du cerveau, est consacré au traitement des informations visuelles », souligne Williams, professeur d'optique médicale William G. Allyn. « Comprendre le fonctionnement de la vision peut être une clé pour comprendre le fonctionnement du cerveau dans son ensemble. »

"Lorsque des scientifiques dans les années 1950 se sont rencontrés pour parler d'intelligence artificielle, ils pensaient qu'apprendre à un ordinateur à jouer aux échecs serait très difficile, mais apprendre à un ordinateur à voir serait facile", explique David Knill, membre du centre, professeur de cerveau et de cognition. les sciences.

"Pourquoi? Parce que les échecs sont difficiles pour les humains. Seul le rare humain avec beaucoup de pratique devient un maître. Mais voir nous paraît facile. Même un bébé peut voir. D'ailleurs, les insectes, les oiseaux et les poissons peuvent voir, quoique différemment des humains. Certains voient mieux, en fait.

Ce que les chercheurs savent maintenant, c'est que la vision humaine est incroyablement compliquée. Alors que nous avons développé un logiciel qui peut battre le pantalon du meilleur maître d'échecs et le meilleur de nos plus brillants à Péril!, les modèles informatiques ont à peine effleuré la surface de la vision humaine.

« Nous pensons à tort à la vision humaine comme à une caméra », explique Knill. "Nous avons cette métaphore d'une image projetée sur la rétine et nous avons tendance à penser que la vision capture des images et les envoie au cerveau, comme un enregistrement de caméra vidéo sur une bande numérique."

Mais la vision humaine s'apparente plus à la parole qu'à la photographie. Dès la petite enfance, notre cerveau apprend à construire un environnement tridimensionnel en interprétant des signaux sensoriels visuels tels que la forme, la taille et l'occlusion, comment les objets proches obstruent la vue des objets plus éloignés. Même les indices non visuels, tels que les sons et les mouvements autonomes, nous aident à comprendre comment nous nous déplaçons dans l'espace et comment déplacer notre corps en conséquence.

« Nous apprenons à voir », dit Knill. "C'est quelque chose que nous avons passé notre vie à apprendre à faire, donc nous ne pouvons pas imaginer ne pas comprendre ce que nous voyons."

Cette vision s'adapte constamment à la base de certaines des découvertes les plus passionnantes de la science de la vision à Rochester. Par exemple, les scientifiques ont longtemps supposé que la sensibilité visuelle de base d'un individu, telle que la capacité de discerner de légères différences dans les nuances de gris, était fixe. Pas ainsi, a constaté Daphné Bavelier, professeur de sciences du cerveau et cognitives. Dans une série d'études en cours sur les effets des jeux vidéo sur la perception visuelle, Bavelier a montré que les joueurs d'action très expérimentés deviennent 58 % meilleurs pour percevoir les différences de contraste. Une telle discrimination visuelle, dit-elle, est le principal facteur limitant dans la façon dont une personne peut voir.

"Normalement, l'amélioration de la sensibilité aux contrastes signifie obtenir des lunettes ou une chirurgie oculaire, ce qui modifie d'une manière ou d'une autre l'optique de l'œil", explique Bavelier. "Mais nous avons constaté que les jeux vidéo d'action entraînent le cerveau à traiter plus efficacement les informations visuelles existantes, et les améliorations durent jusqu'à des années après l'arrêt du jeu."

Plus récemment, Alexandre Pouget, chercheur en sciences cognitives de Bavelier et Rochester, a découvert que jouer à des jeux vidéo d'action peut également entraîner l'esprit à prendre les bonnes décisions plus rapidement. Les joueurs de jeux vidéo dans leur étude ont développé une sensibilité accrue à ce qui se passait autour d'eux, un avantage qui pourrait se répercuter sur des activités quotidiennes telles que conduire, lire en petits caractères, suivre ses amis dans une foule et naviguer en ville.

LONGUE VUE: Sous le regard de Krystel Huxlin (debout) et de l'étudiante diplômée en neurosciences Anasuya Das, Maurice DeMay de Rochester démontre les exercices de vision périphérique qu'il fait pour renforcer ses capacités visuelles après qu'un accident vasculaire cérébral a endommagé son cortex visuel. (Photo : Adam Fenster)

"Ce n'est pas le cas que les joueurs de jeux d'action soient plus gâchettes et moins précis : ils sont tout aussi précis et aussi plus rapides", dit Bavelier. "Les joueurs de jeux d'action prennent des décisions plus correctes par unité de temps. Si vous êtes chirurgien ou si vous êtes au milieu d'un champ de bataille, cela peut faire toute la différence.

S'appuyant sur la découverte de Bavelier selon laquelle les jeux vidéo peuvent apprendre au cortex visuel à mieux utiliser les informations qu'il reçoit, Bavelier et Knill ont commencé des recherches sur la façon de recycler la stéréopsie, la capacité du cerveau à percevoir la profondeur en combinant les vues légèrement disparates qu'il reçoit de chaque œil, chez les patients qui sont stéréo-aveugles. Comme les effets dans les films 3D, la stéréopsie est ce qui fait qu'un objet solide semble « surgir » et sous-tend notre capacité à évaluer très précisément les distances, comme lorsque nous enfilons une aiguille ou frappons une balle, explique Knill.

Expert en perception de la profondeur, Knill étudie comment le cerveau utilise de tels indices visuels pour contrôler notre comportement dans le monde. Comment, par exemple, le cerveau intègre-t-il des informations sur la forme, la taille, l'ombre, l'orientation et la position des objets pour guider les mouvements de la main ? Quels signaux nous permettent de savoir exactement à quelle distance se trouve une tasse sur la table, et de la saisir avec une précision si étonnante ?

Pour l'étude de stéréopsie, Indu Vedamurthy, stagiaire postdoctoral au centre, a conçu un jeu informatique en 3D utilisant des animations informatiques, des miroirs sans tain et des dispositifs de suivi oculaire, en collaboration avec Bavelier et Knill. Jusqu'à six jours par semaine pendant une heure à chaque fois, les participants à l'étude qui ont une mauvaise stéréovision font de leur mieux pour écraser une grenouille virtuelle. Le hic, c'est que le jeu supprime tous les autres rappels sur lesquels nous comptons généralement pour la profondeur, comme la perspective et la vitesse et le mouvement relatifs, et oblige le joueur à se fier uniquement à des repères stéréoscopiques pour juger de l'emplacement de la grenouille. L'équipe espère qu'en forçant les participants à se concentrer sur ces indices, ils renforceront leur capacité à percevoir la profondeur.

Greg DeAngelis explore également la perception de la profondeur mais au niveau biologique de base des neurones individuels. Le professeur et titulaire de la chaire de sciences cérébrales et cognitives est un expert de la parallaxe de mouvement, un indice de profondeur qui découle des propres mouvements du spectateur.

Avec la parallaxe de mouvement, la direction et la vitesse de déplacement d'un objet sur la rétine sont directement liées à sa distance par rapport au spectateur. Lorsque nous nous déplaçons, les objets proches semblent se déplacer dans la direction opposée de notre tête, tandis que les objets plus éloignés se déplacent avec nous. "Les repères de parallaxe de mouvement sont déterminés par la géométrie de la visualisation, il s'agit donc potentiellement d'une mesure très précise de la distance et d'un puissant repère de profondeur", explique DeAngelis.

"Le défi pour nous était de comprendre où dans le cerveau se trouvent des neurones qui peuvent réellement extraire des informations sur la profondeur à partir de la parallaxe du mouvement, et jusqu'à il y a quelques années, personne ne le savait." Pour résoudre le casse-tête, son équipe a créé un système de réalité virtuelle avec une animation qui simulait le mouvement des objets mais selon un schéma ambigu à moins que le spectateur ne se déplace d'un côté à l'autre. Ils ont ensuite mesuré le déclenchement des neurones dans la zone temporale moyenne du cerveau, une petite zone connue pour traiter le mouvement visuel.

Lorsque les neurones individuels de cette région n'ont reçu que les indices visuels de l'animation, ils se sont déclenchés sans discernement. Mais lorsque les signaux du mouvement des yeux ont été ajoutés, les neurones se sont déclenchés d'une manière cohérente avec la disposition tridimensionnelle de la scène.

L'expérience démontre, dit DeAngelis, comment des neurones uniques dans le cerveau combinent des images visuelles avec des informations sur le mouvement des yeux pour calculer la profondeur. Notre perception des trois dimensions ne repose pas uniquement sur des caractéristiques visuelles comme la forme ou l'occlusion ou même sur la vision binoculaire.

"Le cerveau utilise de nombreux autres signaux pour donner un sens à l'entrée visuelle et l'un d'entre eux est le mouvement des yeux", dit-il.

« Nous avons beaucoup appris sur le fonctionnement de différentes zones du cerveau au fil des ans en observant des humains souffrant de lésions cérébrales causées par des lésions et des accidents vasculaires cérébraux », dit-il. Mais une telle perte de cellules nerveuses n'est généralement pas limitée à une région spécifique. Son laboratoire est capable d'inactiver temporairement de minuscules zones du cortex cérébral de seulement 1 millimètre de diamètre, puis d'observer et de cartographier les fonctions de zones discrètes avec précision.

De telles avancées, anticipe DeAngelis, aideront à décoder la façon dont le cerveau comprend des aspects encore plus complexes de la profondeur, comme la perception des surfaces ondulantes et leur orientation par rapport au spectateur.

Selon les chercheurs, les connaissances sur la perception visuelle sont importantes pour comprendre qui nous sommes en tant qu'espèce.

"Les humains sont des créatures très dominées visuellement", explique DeAngelis. « Si vous comparez les humains aux souris, les souris ont une vision assez moche. Ils comptent sur le fouet et énormément sur l'olfaction. Non pas que nos autres sens ne soient pas importants, mais une grande partie de notre comportement, comme la capacité de manipuler des choses avec nos mains et de travailler avec des outils, repose fortement sur la vision.

Après avoir perdu la moitié de cette capacité, Risen ne pouvait pas être plus d'accord. Il est venu à Rochester pour travailler avec Krystel Huxlin, professeur agrégé d'ophtalmologie et de sciences du cerveau et cognitives qui a été le pionnier de l'utilisation d'exercices de vision pour aider à restaurer la vue perdue à la suite de lésions cérébrales causées par un accident vasculaire cérébral. "Le cerveau est comme un gros muscle, à sa manière, et il nécessite de l'exercice, et si vous voulez récupérer des fonctions, vous devez l'exercer", explique Huxlin.

L'utilisation de la thérapie cérébrale était une idée radicale dans les cercles médicaux et scientifiques il n'y a pas si longtemps, une idée qui a suscité un grand scepticisme. Une fois que les cellules nerveuses meurent, elles ne reviennent pas, peu importe à quel point elles sont stimulées.

Mais le travail de Huxlin n'a pas seulement montré une amélioration de la vision, il aide également les scientifiques à mieux comprendre la puissante capacité du cerveau à réapprendre une compétence en utilisant des voies neuronales alternatives si on leur donne le bon encadrement.

Pour reconstruire la perception visuelle périphérique, les participants à l'étude fixent une minuscule cible au centre d'un écran d'ordinateur tandis qu'un motif de points mobiles de la taille d'un quart clignote pendant une demi-seconde dans leur champ aveugle. Sans regarder le motif en mouvement, les participants essaient de distinguer dans quelle direction les points dérivent. Un deuxième exercice utilise un cercle de barres. Le but est d'identifier si les barres sont orientées verticalement ou horizontalement.

Comparé à courir des tours et à soulever des poids, s'appuyer sur une mentonnière et regarder des points ne semble pas vraiment éprouvant. Faux, disent Risen et les autres participants.

"C'est très fastidieux, et c'est concentré, concentré", explique Risen, qui a fait les exercices cinq jours par semaine à la maison au cours des 18 derniers mois. « Il est très facile de tricher même si vous ne le souhaitez pas » en regardant par inadvertance les points en mouvement, dit-il. Les sessions comprennent 300 essais, deux fois par jour, un processus qui prend environ une heure. Les progrès nécessitent des mois de pratique constante. « Si je travaillais autant que je fais ça, je serais un Adonis », dit-il.

"La raison pour laquelle cela fonctionne est que nous martelons exactement au même endroit dans le champ visuel et sur les mêmes circuits neuronaux, encore et encore", explique Huxlin. Bien que l'AVC ait détruit les cellules qui transmettent généralement les signaux visuels, d'autres voies plus faibles véhiculent également des stimuli visuels. "Ce que nous pensons qui se passe, c'est que la formation réveille ou renforce ces voies alternatives au point que l'information atteint alors la conscience."

Une fois que le cerveau récupère la capacité de détecter les stimuli de mouvement à partir des exercices, la plupart des autres aspects de la vision récupèrent automatiquement, dit-elle.

Mais l'amélioration que Huxlin est capable de mesurer avec précision sur l'écran d'ordinateur se traduit-elle par une capacité réelle à comprendre le monde en trois dimensions ? C'est l'une des questions que Knill travaille avec Huxlin à explorer.

Pour étudier les personnes souffrant de dommages visuels similaires à ceux de Risen, Laurel Issen, une étudiante diplômée travaillant avec Knill et Huxlin, utilise un système de réalité virtuelle. Les participants sont assis devant un écran semi-circulaire de 7 pieds de haut qui englobe l'ensemble de leur champ de vision. Là, ils font l'expérience d'un motif de points en mouvement. Pensez aux animations de films de science-fiction, dans lesquelles les explorateurs de l'espace survolent un champ d'astéroïdes, explique Knill. Les points se déplacent de manière à simuler un mouvement physique dans une certaine direction.

La beauté de cette configuration élaborée, note-t-il, est que les chercheurs peuvent manipuler le motif de points dans le champ aveugle du sujet. Finalement, Knill et Issen prévoient de tester les participants avant de commencer le régime d'exercices oculaires de Huxlin, et de nouveau après des mois de thérapie pour documenter les améliorations dans les zones endommagées.

En attendant, Risen est ravi des mesures personnelles de son rétablissement. Il a connu une « amélioration significative » de sa vision et sa « vie est beaucoup plus facile maintenant. Je suis plus à l'aise dans mon environnement. Durer

En septembre, il franchit officiellement l'obstacle qu'il redoutait depuis trois ans. Il a réussi le test de vision périphérique de son permis de conduire, qui consiste à pouvoir détecter un flash lumineux sur le côté.

"Quand j'ai vu cette lumière, j'étais l'homme le plus heureux du monde", dit-il.

Susan Hagen écrit sur les sciences sociales pour University Communications.


Voir la vidéo: Õnne 13 L 20. aprillil kell ETVs (Janvier 2022).