Pour rappel, les inscriptions pour l’année universitaire 2025-2026 sont ouvertes.
Si vous souhaitez être accompagné dans la conception de votre dossier Parcoursup et dans la préparation de vos oraux, vous pouvez procéder à votre inscription en ligne en suivant ce lien.
Vous pourrez ainsi bénéficier dès maintenant de tous nos supports pour commencer à travailler sur la rédaction de votre projet de formation motivé mais également sur les notions incontournables à maîtriser à l’oral.
Attention, nous proposons un accompagnement sur mesure, adapté et personnalisé. Pour que tous les dossiers soient étudiés, corrigés puis validés avant le dépôt sur Parcoursup et afin d’assurer des oraux individuels de qualité à chacun, nous limitons le nombre de candidats. Nous accueillons chaque année 150 étudiants maximum par promotion.
N’hésitez pas à nous contacter afin que nous vous réservions une place.
L’étude menée par des chercheurs de l’Université de Columbia ouvre de nouvelles voies de développement afin d’affiner les technologies d’aides à la compréhension de la parole dans des environnements bruyants.
Quand on vous dit que le cerveau est une machine bien mystérieuse mais ô combien efficace. Des scientifiques de l’Université de Columbia ont réalisé une étude afin de mieux comprendre la façon dont le cerveau humain traite la parole dans des environnements bruyants.
« Les humains peuvent facilement se connecter à un locuteur dans un environnement multi-locuteurs tout en captant des morceaux de la parole en arrière-plan. Cependant, on ne sait toujours pas comment nous percevons la parole masquée et dans quelle mesure la parole non ciblée est traitée. », écrivent les chercheurs.
Le cerveau encode la parole
Les scientifiques ont implanté des électrodes sur le cerveau de personnes épileptiques en pleine intervention chirurgicale. Ils ont ainsi enregistré l’activité neuronale pendant que le patient se concentrait sur une seule voix dans un environnement bruyant.
Les résultats mettent en exergue que le cerveau décode séparément la parole masquée et la parole voulue. Il récupère des informations vocales masquées par un bruit de fond trop bruyant tout en captant des fragments de parole sur lequel l’auditeur n’est pas concentré. Et ce, principalement lorsque l’orateur en question a une voix calme et posée.
A grand renfort d’enregistrements neuronaux et de modélisations informatiques, des chercheurs ont une nouvelle fois démontré qu’augmenter le volume de tous les sons est inefficace pour améliorer la compréhension de la parole. Et que de ce point de vue, les aides auditives actuelles manquent de précision. A l’avenir, les conclusions de l’étude pourraient servir au développement de technologies de décodage plus performantes pour les aides auditives afin d’isoler efficacement la parole voulue.
Les vidéos de « mewing » se multiplient sur internet avec une promesse alléchante : restructurer le bas de notre visage affaissé ou fuyant. Le tout, grâce à une méthode toute simple de replacement de la langue. Explications et mise au point avec l’orthophoniste Sylvie Drai-Jacquin.
Le « mewing » est adapté de la technique de repositionnement de la langue (normal tongue posture) théorisée par John Mew, orthodontiste britannique né en 1928. En étudiant l’impact environnemental sur l’évolution de notre mâchoire à travers les siècles, Mew observe que l’appétence humaine pour les aliments mous et cuits a affaibli la musculature des mâchoires ainsi que la structure de maintien du visage à partir des pommettes. S’ensuit une fuite de la mandibule (mâchoire inférieure) et une avancée du maxillaire (mâchoire supérieure) qui empêche l’occlusion dentaire (c’est à dire l’emboîtement des dents du haut et du bas).
En effet, ce type d’alimentation incite à perpétuer la déglutition primaire qui correspond à la succion infantile, et consiste à pousser la langue vers les mâchoires pour permettre la tétée. Lors de l’apparition des dents et du passage à une nourriture solide, la succion, devenue caduque, fait place à la mastication. Ce mécanisme qui permet la déglutition et la pré-digestion des aliments étant contrarié par le mouvement de va et vient horizontal de la langue, celle-ci va désormais se plaquer sur le palais pour permettre la mastication. Ce placement de la langue correspond au passage de la déglutition primaire à la déglutition secondaire.
Si cette étape est négligée, du fait d’une nourriture trop molle ou d’aliments avalés « tout ronds », la déglutition primaire, au lieu d’être inhibée, va se perpétuer et entrainer un déplacement des dents du fait des pressions continues de la langue lors de la déglutition. La bouche aura tendance à rester ouverte et à être utilisée à la place du nez pour respirer, entraînant une mauvaise posture des épaules (voûtement).
Le « mewing » consiste à rééduquer le placement de la langue (qui doit être plaquée au palais) lors de la déglutition et même au repos) pour muscler les mâchoires, assurer une bonne assise au dents, les réaligner et rééquilibrer l’axe pommettes-mâchoires-menton. D’où son succès sur Internet où cette méthode revisitée promet de redonner à tout un chacun un visage harmonieux et tonique.
Quel impact notre façon de déglutir a-t-elle sur nos dents ?
Sylvie Drai-Jacquin : La langue est un organe composé de 17 muscles (organe de la phonation, de la déglutition et de la mastication ). On déglutit entre 1700 à 2000 fois par 24 heures. La déglutition primaire ou infantile est normale chez le nourrisson et le très jeune enfant, favorisée par la succion d’un doigt ou de la tétine avec interposition linguale entre les arcades du haut et du bas (à la langue s’avance à l’endroit où les dents apparaissent). Puis on passe à la déglutition secondaire entre 3 et 7 ans avec la mise en place des canines et des incisives. La persistance de la déglutition primaire, au delà de cet âge s’appelle déglutition atypique et entraîne la malformation des arcades dentaires, des mâchoires et des troubles de la prononciation. Elle peut aussi favoriser le déchaussement des dents chez l’adulte. Cette déglutition doit être rééduquée le plus tôt possible.
En quoi consistent les exercices ?
S. D-J. : Lors de la déglutition secondaire, la langue ne touche pas les dents de devant. La rééducation consiste donc à acquérir ces automatismes en s’exerçant tout d’abord devant un miroir : cette déglutition se fait en prenant une gorgée d’eau et en sentant la pointe de la langue au palais sans contact avec les dents de devant et les lèvres fermées sans crispation : on répétera l’exercice plusieurs fois et le patient devra le faire quotidiennement à la maison. On travaillera dans un second temps avec un aliment semi liquide (compote) pour travailler la mastication avec le contrôle de la langue en permanence. Le patient doit également apprendre à positionner la langue derrière les dents du haut sans les toucher, pour les consonnes suivantes : T D N L GN (son gneu). Enfin, on fait prendre conscience de la position linguale au repos : la langue, en effet, doit être en ventouse au palais et les lèvres fermées pour favoriser également la respiration nasale. La posture générale doit être vérifiée et travaillée également si cela est nécessaire . Cette rééducation est la même pour un enfant de 7 ans que pour un adulte. Le patient doit aussi se débarrasser du tic suivant : le léchage des lèvres. L’orthophoniste doit aider le patient à acquérir ces automatismes. Pour cela il a besoin de sa motivation et de sa coopération.
Lorsque les dents se sont déplacées, cette pratique suffit-elle à corriger leur position ?
S. D-J. : Non, absolument pas. Le traitement orthodontique est indispensable pour la correction des anomalies dentosquelettiques. Mais pour assurer la stabilité définitive du traitement, la rééducation orthophonique est nécessaire. Par la rééducation, l’orthophoniste fait prendre conscience de la langue au patient. La rééducation doit démarrer avant tout traitement orthodontique pour que le patient apprenne à positionner sa langue. Lors du retrait de l’appareil dentaire ou des bagues, il est nécessaire de refaire une ou deux séances de contrôle et pour s’habituer à de nouvelles sensations sans être tenté de toucher ses dents avec sa langue (et ne pas risquer de les déplacer à nouveau). Cette rééducation bien menée peut être réalisée en 4/5 séances si le patient est conscient de l’importance de celle-ci. Bien sûr, le nombre de séances peut être plus important. Le travail de l’orthodontiste et celui de l’orthophoniste se complètent au bénéfice du patient.
Une étude, menée par l’Université d’Édimbourg, a mis en évidence des liens génétiques entre la dyslexie et le TDAH (trouble de l’attention avec ou sans hyperactivité). On vous explique.
Il s’agit de la première étude qui explore les liens génétiques entre la dyslexie et le TDAH (trouble déficit de l’attention avec ou sans hyperactivité). Une avancée notable pour les chercheurs de l’Université d’Edimbourg qui affirment que « ces résultats pourraient aider à adapter les systèmes de soutien à l’éducation, à l’emploi et au bien-être aux personnes atteintes de dyslexie ou de TDAH ». Très souvent héréditaire, la dyslexie partagerait, selon les conclusions de l’étude, certaines caractéristiques avec des troubles du développement neurologique, en particulier le trouble déficitaire de l’attention avec hyperactivité (TDAH).
Dyslexie et TDAH : quels symptômes ?
La dyslexie peut causer un retard du langage et fait partie des « troubles dys ». « La dyslexie se définit comme des difficultés spécifiques en lecture, plus particulièrement au niveau de la reconnaissance des mots avec une lecture lente, hésitante, saccadée et des erreurs de types confusions auditives « , affirme l’association TDAH France, sur leur site internet.
Le TDAH, lui, entraîne des symptômes, pouvant ou non être associés, tels que des difficultés d’attention , une hyperactivité et une hyperkinésie (augmentation anormale de la rapidité et de l’amplitude des mouvements).
La dyslexie, touchant 5 à 10 % des enfants dans le monde, est « un trouble du développement d’origine neurologique, présent dès la naissance et qui persiste tout au long de la vie », comme l’affirme l’orthophoniste Hélène Dubois, dans un article sur pour santemagazine.fr. Le TDAH est un trouble du neurodéveloppement qui « entraîne souvent un handicap sévère et persistant résultant de niveaux élevés d’inattention, d’activité et de comportements impulsifs », annonce l’association TDAH France, sur leur site internet.
Une étude qui aide à comprendre la biologie derrière ces troubles
Pour réaliser cette étude, les chercheurs de l’Université d’Édimbourg, encadrés par la doctorante en neurosciences Austeja Ciulkinyte, ont analysé 10 troubles neurodéveloppementaux et psychiatriques issus du Psychiatric Genomics Consortium, le plus important consortium international de scientifiques consacré aux troubles psychiatriques.
Ces données ont été comparées à plusieurs bases publiques anonymes ainsi qu’à des statistiques sur la dyslexie. En menant des analyses plus détaillées, les chercheurs ont découvert des régions génétiques similaires entre les deux troubles, qui toucheraient 10% de la population.
174 gènes partagés entre la dyslexie et le TDAH
En créant un outil statistique, ils ont trouvé des traits génétiquement similaires entre la dyslexie et 10 troubles, comme le TDAH, l’anorexie mentale et le syndrome de Gilles de la Tourette. Au total, ce sont 49 régions génétiques et 174 gènes partagés entre la dyslexie et le TDAH. « C’est la première fois que les liens génétiques avec la dyslexie sont étudiés dans le contexte de traits psychiatriques. À l’avenir, d’autres troubles d’apprentissage tels que la dyscalculie ou la dyspraxie devraient être inclus pour permettre une compréhension plus nuancée des relations entre eux », affirme Austėja Čiulkinytė, doctorante en neurosciences.
Imaginez voir un animal à fourrure à quatre pattes qui miaule. Mentalement, vous savez ce que c’est, mais le mot « chat » est coincé sur le bout de votre langue.
Ce phénomène, connu sous le nom d’aphasie de Broca ou d’aphasie expressive, est un trouble linguistique qui affecte la capacité d’une personne à parler ou à écrire. Alors que le traitement actuel est l’orthophonie, les scientifiques de la Northwestern University travaillent vers un traitement différent, peut-être plus efficace: l’utilisation d’une interface informatique cérébrale (BCI) pour convertir les signaux cérébraux en mots parlés.
La première étape de ce processus est de déterminer où dans le cerveau le BCI devrait enregistrer pour décoder la parole prévue de quelqu’un.
Actuellement, les appareils BCI ne sont utilisés que sur les personnes atteintes de paralysie de SLA ou d’AVC dans le tronc cérébral, ce qui les laisse incapables de se déplacer ou de communiquer. Chez ces patients, le BCIS enregistre les signaux du lobe frontal. Mais l’aphasie de Broca, qui affecte le plus souvent les personnes après une tumeur AVC ou un cerveau, résulte de dommages au lobe frontal du cerveau, où la production de la parole et les parties du langage sont traitées. Ainsi, pour aider les patients atteints d’aphasie de Broca, les scientifiques devraient probablement enregistrer des signaux dans d’autres domaines du cerveau.
Dans une nouvelle étude, les scientifiques du Nord-Ouest en médecine ont, pour la première fois, identifié des régions cérébrales spécifiques à l’extérieur du lobe frontal – dans les cortex temporels et pariétaux – impliqués dans l’intention de produire de la parole. Cela ouvre la porte à un jour à l’aide d’un BCI pour traiter l’aphasie de Broca.
« Il s’agit d’une étape petite mais nécessaire. Nous avons montré que ces zones non frontales contiennent en effet des informations sur l’intention de quelqu’un de produire un discours qui nous permettait de distinguer quand ils allaient parler contre quand ils ne parlent pas ou pensent simplement à quelque chose qu’il ne veut pas dire fort. » – Dr Marc Slutzky, auteur correspondant, Professeur de neurologie et de neurosciences à la Northwestern University Feinberg School of Medicine.
Ces premières découvertes aideront les scientifiques lorsqu’ils finiront par concevoir un BCI pour les patients atteints d’aphasie de Broca pour distinguer si les informations liées à la parole de quelqu’un sont liées à la production de langue ou à la perception du langage (y compris la compréhension).
« Il est essentiel de ne pas décoder les pensées de l’utilisateur qui ne sont pas destinées à être parlées à haute voix, à la fois pour cette raison pratique et pour les problèmes éthiques que cela pourrait résoudre », a déclaré Slutzky.
L’étude était chez les patients sans déficit linguistique. Bien que l’objectif soit de travailler un jour avec des patients atteints d’aphasie, cette étude était chez des patients qui n’avaient pas de déficits linguistiques.
Les scientifiques ont enregistré des signaux électriques de la surface du cortex chez neuf patients (au Northwestern Memorial Hospital) avec des tumeurs d’épilepsie ou du cerveau. Les réseaux d’électrodes ont été implantés chez les personnes atteintes d’épilepsie dans le cadre de leur surveillance des crises avant la chirurgie ou placées temporairement sur le cerveau dans la salle d’opération, tandis que les patients atteints de tumeurs ont subi une chirurgie cérébrale et une cartographie éveillée.
Ensuite, les patients ont lu des mots à haute voix à haute voix d’un moniteur ou étaient silencieux (au repos) tandis que les enquêteurs ont enregistré leurs signaux cérébraux (appelés électrocorticographies ou ECOG).
La prochaine étape de cette recherche sera de décoder ce que ces patients ont réellement dit.