Sciences.

Néanderthal a-t-il boosté notre immunité ?

LE MONDE SCIENCE ET TECHNO | 11.01.2016 à 15h19 • Mis à jour le 12.01.2016 à 15h20.

L’étude du génome de Neandertal a montré qu’une partie de l’humanité actuelle porte de l’ADN légué par ce cousin disparu – entre 1 % et 6 % dans les populations non africaines. Après sa sortie d’Afrique, il y a 125 000 à 60 000 ans, Homo ­sapiens a rencontré les néandertaliens, qui ­vivaient en Eurasie depuis déjà 200 000 ans, et des unions sont alors intervenues entre individus des deux espèces, pour le meilleur et pour le pire. Le meilleur ? Peut-être une adaptation aux agents pathogènes auxquels les néandertaliens étaient confrontés depuis longtemps en Europe. Le pire ? Cette capacité de réaction immunitaire rendrait ses bénéficiaires plus susceptibles de développer des allergies.

Ces hypothèses sont développées dans deux études parues le 7 janvier dans l’American Journal of Human Genetics. La première, dirigée par Lluis Quintana-Murci (Institut Pasteur), a consisté àcomparer, dans la base publique du « 1 000 Genomes Project », quelque 1 500 gènes impliqués dans l’immunité innée, notre première ligne de défense contre les agents pathogènes. Pourquoi s’intéresser à ces gènes en particulier ? « Parce que les maladies infectieuses ont été la cause majeure de la mortalité jusqu’au XXe siècle, et donc la principale force de sélection naturelle chez l’homme », répond Lluis Quintana-Murci. Cette vaste comparaison suggère que des adaptations majeures de ces gènes sont survenues il y a 6 000 à 13 000 ans, au moment où l’humanité inventait l’agriculture. « La cohabitation avec les animaux, la proximité des ordures offraient un cocktail parfait pour une nouvelle pression de sélection exercée par les pathogènes », poursuit le chercheur.

Des gènes face aux intrus.

La comparaison avec des génomes anciens, dont ceux de néandertaliens, a fait aussi émerger un groupe de gènes, TLR 1, 6 et 10, très présents chez les Européens et les Asiatiques. Ce même groupe a aussi été repéré, de façon indépendante, par une équipe de l’Institut Max-Planck d’anthropologie évolutionnaire de Leipzig (Allemagne). Ils permettent à des récepteurs situés à la surface de cellules de détecter la présence d’intrus (bactéries, champignons, parasites) et d’y réagir.

Janet Kelso et ses collègues recherchaient des gènes des populations humaines actuelles présentant le plus de similarité avec ceux d’humains archaïques, comme les néandertaliens ou les dénisoviens, qui vivaient en Sibérie il y a encore 50 000 ans. L’équipe est tombée sur le même trio de gènes TLR. Deux de ces variants sont proches de ceux retrouvés dans le génome des néandertaliens, le troisième est proche de celui des occupants de la grotte de Denisova, en Sibérie.

« Il va falloir déterminer ce que la conservation de ces gènes implique dans notre capacité à résister aux agents pathogènes », indique Lluis Quintana-Murci, qui reste prudent sur leur impact fonctionnel. Ses confrères de ­Leipzig soulignent de leur côté que, chez les porteurs de la version archaïque de ces gènes TLR, on observe une moindre infection par la bactérie Helicobacter pylori, responsable d’ulcères pouvant évoluer en cancers. Mais aussi une plus grande propension à développer des allergies. Résultat d’un compromis entre forte réactivité aux microbes et hypersensibilité à l’environnement, aujourd’hui plus aseptisé ?

Hervé Morin
Pôle Science et Médecine.

Le squelette d un homme de neandertal et sa modelisation au musee ds sciences naturelles de tokyo

Le squellette d'un homme de Néanderthal et sa modélisation au musée des Sciences Naturelles de Tokyo.

Lire la suite

A quoi ressemblait l’ancêtre de Néanderthal et de l’homme moderne ?

Que sait-on de l'ancêtre commun à Homo sapiens et à l'homme de Néanderthal ?

Nous savons que nous avons un ancêtre commun avec les Néandertaliens. Cet ancêtre, ou plutôt cette population ancestrale qui est généralement appelée Homo heidelbergensis, vivait au Pléistocène moyen (période qui va d’environ 800 000 ans à 200 000 ans avant notre ère), en Afrique et probablement en Eurasie. Malheureusement, pour une période de temps si large et pour une zone géographique si étendue, nous ne disposons que de quelques dizaines de fossiles. De ce fait, il y a beaucoup de débats sur la définition de cette population : quelle espèce ? Quelle répartition géographique ? Et bien sûr une des questions principales est de déterminer à quel moment les deux lignées, celle des hommes modernes et celle des Néandertaliens se sont séparées.

L’objectif de notre étude était de reconstruire mathématiquement un crâne virtuel qui représenterait un fossile de cette population ancestrale. Par la suite nous pouvions considérer ce fossile virtuel comme un fossile « normal » et le comparer avec les fossiles originaux pour voir si sa morphologie correspondait à certains spécimens. Enfin, pour prendre en compte le débat sur le moment de la séparation des lignées moderne et néandertalienne, nous avons compliqué notre modèle et créé trois ancêtres virtuels correspondant à trois dates possibles pour cette séparation : 1 million d’années, 700 000 ans et 400 000 ans. A l'heure actuelle, la date la plus probable de séparation des lignées, qui correspond aux estimations basées sur l'ADN et l’horloge moléculaire est plus proche de 400 000 ans.

Comment avez-vous procédé pour cette reconstitution virtuelle ?

Nous avons construit un arbre simplifié représentant l’évolution du genre Homo. Cet arbre contient trois espèces différentes, Homo erectus, Homo neanderthalensis etHomo sapiens, représentées par 15 spécimens (2 erectus, 5 Néandertaliens et 8 hommes modernes) sans inclure de fossile qui pourrait correspondre à la population ancestrale visée. Nous n’avons utilisé que 15 spécimens du fait de l’état de conservation général des fossiles qui sont souvent très fragmentaires. Or dans cette étude nous voulions reconstruire le crâne entier.

Les spécimens sont décrits par 797 « point-repères » qui couvrent l’ensemble du crâne. C’est cette information, la forme décrite par ces point-repères, qui va être utilisée par l’algorithme et contrainte par un modèle d’évolution basé sur la marche aléatoire des changements évolutifs, afin de « remonter le temps ». A partir de là nous pouvons obtenir un ancêtre virtuel pour chaque nœud de notre arbre généalogique simplifié qui représente l’histoire du genre Homo.

A quoi cet ancêtre ressemblait et qu'avons-nous encore de lui ?

Cet ancêtre à un front bas, des arcades sourcilières proéminentes, une face prognathe, ainsi que le début d’un renflement à l’arrière du crâne qui deviendra chez les Néandertaliens le « chignon occipital ».

Il nous ressemble surtout dans la forme de la partie basse de son visage, laquelle présente une petite dépression qui, chez l’homme moderne, est très marquée et contribue à la formation de pommettes relativement saillantes. Cet ancêtre ressemble plus aux Néandertaliens qu’à nous car la forme du crâne des hommes modernes est plus éloignée des autres espèces d’hommes aujourd’hui disparues que celle des Néandertaliens. Notre particularité est d'avoir une face rétractée sous la voûte crânienne qui est beaucoup plus haute et arrondie que n’importe quelle voûte crânienne des autres espèces humaines du passé.

Comment être sûr que cette modélisation donne un résultat significatif ? Est-ce contradictoire ou complémentaire avec les résultats obtenus lors des travaux effectués sur l'ADN ancien ?

Nous avons comparé nos trois ancêtres virtuels à plus de 50 crânes provenant d’Afrique et d’Eurasie et datant de 1,8 million d’années jusqu'à nos jours. Les trois ancêtres ont une morphologie qui ressemble aux fossiles datant du Pléistocène moyen, c’est-à-dire la période à laquelle nous savons qu’existait la population ancestrale des hommes modernes et des Néandertaliens. Ceci tend à montrer que l’estimation fonctionne bien puisque le modèle utilisé pour calculer les ancêtres n’incluait pas de fossile de cette période. Parmi ces trois modèles, l’ancêtre virtuel qui ressemble le plus aux fossiles de cette période est le numéro 2 reconstruit sur l’hypothèse d’une séparation entre Néandertaliens et hommes modernes vers 700 000 ans avant notre ère. C’était assez surprenant, je m’attendais à ce que l’ancêtre le plus récent, 400 000 ans, corresponde le mieux à la morphologie des fossiles du Pléistocène moyen. Cela aurait été concordant avec les résultats issus des analyses de l’ADN ancien.

Qu'est-ce que cette nouvelle « datation » dit de l'évolution du genre humain ?

La nouvelle date n’est qu’une hypothèse basée sur un modèle, ce n’est pas forcément la vérité. En revanche, il est possible que, dans certaines analyses génétiques, la vitesse du taux de mutation soit légèrement surestimée, ce qui entraîne une sous-estimation de la date de séparation de deux lignées. Je pense que la réalité se trouve plutôt entre 700 000 et 400 000 ans. Nous avons fait le choix de tester trois hypothèses seulement, nous ne savons pas avec certitude ce qu’aurait donné un modèle utilisant une date différente, par exemple 500 000 ans. Si cette date est confirmée, elle indiquerait une évolution plus lente des lignées moderne et néandertalienne et une relative stabilité au Pléistocène moyen : comme les plus anciens hommes modernes et Néandertaliens connus ne sont vieux que d’environ 200 000 ans, cela laisserait près de 500 000 ans à cette population ancestrale pour se diversifier.

Dans quelle mesure pourrait-on utiliser cette approche pour d'autres espèces ou d'autres moments-clés de la lignée humaine ?

Cette approche est parfaitement applicable à d’autres espèces. Elle permet de reconstruire la forme ancestrale d’un os ou d’un ensemble d’os quel que soit l’organisme concerné. Bien sûr, le modèle que nous utilisons ici est très simple. Il peut être complexifié de façon considérable pour intégrer d’autres facteurs qui jouent un rôle dans l’évolution, comme des pressions sélectives dues à l’environnement, au climat ou à la géographie. Reconstruire virtuellement le dernier ancêtre commun aux tyrannosaures et aux diplodocus est donc possible... Ce n’est bien sûr pas mon objectif prioritaire et je me concentre actuellement sur l’application de cette approche à l’origine commune des hommes et des chimpanzés, à reconstruire le chaînon manquant le plus important dans l’histoire de la famille humaine !

Propos recueillis par  Pierre Barthélémy.

Unspecified 915x1024

En haut, crâne d'un homme moderne. En bas, fossile d'un homme de Néanderthal découvert en France. Au milieu en bleu, simulation du crâne de l'ancêtre commun à ces deux espèces. © Mounier et al./Journal of Human Evolution.

Lire la suite

L’homme de Cro-Magnon n’était pas blanc.

LE MONDE | 28.12.2015 à 12h17 • Mis à jour le 29.12.2015 à 17h05.

De récentes déclarations, malvenues, sur une France supposément de « race blanche », ont suscité de vives réactions. Car, outre le caractère complètement anachronique et scientifiquement erroné du concept de race appliqué à l’espèce humaine, ces propos sous-entendent qu’il existerait une France idéale et primitive, exempte de toute influence extérieure, qui serait donc à préserver comme un patrimoine. La « France des clochers », avec son « long manteau d’églises et de cathédrales », comme l’affirmait l’ancien président de la République Nicolas Sarkozy.

Cette polémique est d’autant plus malvenue qu’elle est contemporaine d’une arrivée de réfugiés sur le sol européen devenue plus importante en raison de la guerre en Syrie. Elle a relancé, parfois en creux, le débat sur le regard que la France porte sur les étrangers, sur ceux qu’elle considère comme étant étrangers, et sur les contours d’une identité nationale que des tentatives de définition récentes et avortées, parce que très discutées et discutables, à travers la création d’un ministère ayant porté ce titre entre 2007 et 2010, avaient pourtant échoué à résoudre.

Nous n’avons pas pour ambition de répondre à toutes les questions complexes soulevées par ce débat. Nous souhaitons simplement donner notre avis, depuis la place qui est la nôtre. Journaliste scientifique, historien spécialiste de la représentation de la préhistoire et préhistorien, nous proposons d’éclairer la discussion sur deux points : d’abord replacer ces questions dans la longue durée, pour montrer qu’elles n’ont, hélas, rien de nouveau ; apporter ensuite un éclairage sur nos ancêtres, c’est-à-dire ceux qui ont occupé l’actuel territoire de la France, et plus largement l’Europe, lors de la lointaine période appelée paléolithique (âge de la pierre taillée), il y a plusieurs dizaines de milliers d’années, et sur ce qu’ils nous ont légué.

Le scénario qui se dégage, loin des représentations ethno et européo-centrées, est celui de longues et complexes migrations, inhérentes à l’humanité, de mélanges de populations parfois entre espèces proches dont nous portons encore la trace dans nos gènes (Néandertal et Denisova), et d’un mode de vie à l’échelle continentale, inventé par des chasseurs-cueilleurs migrants à la peau certainement pas aussi blanche que d’aucuns la souhaiteraient.

Peur et l’angoisse.

Premier constat, la peur de l’autre est une constante dans la représentation de la préhistoire dans la littérature et, plus largement, dans la fiction depuis le XIXe siècle. Celui qui n’est pas moi est forcément un danger et ce danger s’accroît évidemment au rythme de son rapprochement. Il est toujours dépeint très négativement, qu’il soit la conséquence d’une menace – si la tribu de Naoh, dans le roman La Guerre du feu de J.-H. Rosny aîné, doit fuir « dans la nuit épouvantable », c’est parce qu’une tribu ennemie lui ayant volé le feu sa survie est en jeu – ou cette menace elle-même.

On peut ainsi lire dans un manuel scolaire des années 1970 : « Les nomades faméliques des terres ingrates sont tentés de surprendre les sédentaires. Ceux-ci doivent prévoir leur défense. » L’errance suscite la peur et l’angoisse. L’ailleurs est hostile. La stabilité géographique, au contraire, est synonyme de calme, de paix. Le nomade est un danger, le sédentaire un ami. Dans l’image que nous nous faisons des temps premiers, rien de plus commun donc que le caractère néfaste, pour ne pas dire nocif, des migrations. Rien de plus commun, mais, pourtant, rien de plus faux.

Deuxième constat, en effet : en l’état actuel des connaissances, après de plus de cent cinquante années de recherche sur les terrains de fouilles et dans les génomes fossiles, la paléoanthropologie nous enseigne que le genre Homo est apparu en Afrique il y a 2,8 millions d’années (site de Ledi-Geraru, en Ethiopie). Partant de là, nous sommes tous des primates adaptés au climat tropical, ce qui se détecte encore dans notre anatomie et notre métabolisme : par exemple, le fait que nous suons par tous les pores de la peau, mécanisme de refroidissement efficace qui permet de supporter plus facilement les fortes chaleurs.

Quant à l’Europe, elle fut peuplée progressivement, sans doute au cours de plusieurs vagues migratoires. On retrouve ainsi des hommes en Géorgie voilà 1,9 million d’années, sur le site de Dmanissi. En Europe de l’Ouest, les plus anciens fossiles humains connus se trouvent en Espagne, datés d’il y a environ 1,2 million d’années, dans la Sima del Elefante.

En France, nous savons que l’homme était présent il y a 1 million d’années dans la grotte du Vallonnet, près de Menton. Il y a laissé ses outils et les restes de ses repas. Quant au fossile humain le plus ancien sur le sol français, il a été découvert cet été à Tautavel, dans une couche datée d’il y a environ 550 000 ans. Hélas, il ne nous a laissé que deux dents…

La lente évolution de ces populations d’origine africaine va ensuite conduire à l’apparition de deux espèces humaines européennes : l’homme de Néandertal, présent il y a 250 000 ans, et l’homme de Denisova ou Dénisovien (sud de la Sibérie), dont on ne connaît encore pratiquement rien, sinon son ADN, identifié à partir d’une poignée d’os.

Environ 40 000 ans avant notre ère, un nouvel épisode migratoire entraîne l’arrivée en Europe de nouvelles populations humaines. Ce sont des hommes anatomiquement modernes, des Homo sapiens, comme nous le sommes encore aujourd’hui, espèce probablement née dans le berceau est-africain de l’humanité, voilà 200 000 ans.

Partis d’Afrique comme leurs lointains prédécesseurs, vraisemblablement poussés par la recherche de meilleures conditions de vie – ce qui n’est pas sans rappeler les motivations des migrants actuels – et de territoires de chasses plus abondants, suivant aussi la migration des troupeaux ou la dispersion des faunes animales, ces nouveaux venus s’installent en quelques millénaires sur tout le continent européen. Leur patrimoine génétique se mélange avec celui des Néandertaliens et des Dénisoviens, dans des proportions variables suivant les zones géographiques.

Ancêtres de stature imposante.

Depuis 30 000 ans environ, le remplacement de population est achevé : seul Homo sapiens est présent dans toute l’Eurasie. Cro-Magnon, comme nous avons pris l’habitude de le surnommer, nous a laissé une cultureoriginale, l’aurignacien, ainsi que le grand art naturaliste, dont la plus ancienne et spectaculaire manifestation est la grotte Chauvet-Pont d’Arc, lovée au bord de l’Ardèche et ornée voici 36 000 ans. Ces populations seront elles-mêmes à leur tour métissées à la suite de leur rencontre avec des agropasteurs venus du Proche-Orient, à partir de 8 000 ans environ. On le voit, les flux migratoires n’ont jamais cessé, et nous sommes, dès les origines, le produit de mélanges complexes.

Estimons-nous, au passage, heureux que des barrières semblables à celles qui s’érigent aujourd’hui le long de nos frontières continentales n’aient pas été dressées, à l’époque, par les véritables autochtones européens qu’étaient les Néandertaliens afin d’empêcher nos ancêtres Homo sapiens d’y pénétrer… Chauvet-Pont d’Arc et Lascaux se trouveraient aujourd’hui quelque part en Turquie ou au sud de la Russie, pour le désespoir de nos offices de tourisme !

Si les Néandertaliens avaient empêché nos ancêtres Homo sapiens de pénétrerleur territoire, Chauvet-Pont d’Arc et Lascaux se trouveraient aujourd’hui quelque part en Turquie ou au sud de la Russie

Mais alors, à quoi ressemblaient les Aurignaciens et leurs descendants directs ? Etaient-ils de grands blonds musclés comme Rahan ou des guerriers taciturnes aux cheveux noirs comme Tounga, autre célèbre Cro-Magnon de bande dessinée ? Etaient-ils blancs de peau ? Si l’on ne peut pas répondre catégoriquement à ces questions, la paléoanthropologie nous donne des indices sérieux et convergents.

D’origine tropicale, adaptés au climat chaud à fort ensoleillement de l’Afrique, nos ancêtres paléolithiques étaient de stature imposante (parfois plus de 1,80 m), comme nous le montrent les squelettes retrouvés, taillés pour la course d’endurance. De plus, ils avaient probablement la peau sombre, meilleure réponse adaptative à ces conditions climatiques et lumineuses.

L’éclaircissement, un phénomène récent.

Sur ce point sensible dans le débat actuel, plusieurs études paléogénomiques récentes, basées sur la recherche dans des ossements fossiles de fragments d’ADN correspondant à des caractères morphologiques (couleur des yeux, des cheveux, de la peau…) ont démontré que l’éclaircissement de la peau consécutif à l’adaptation au moindre ensoleillement de l’Europe continentale par rapport à l’Afrique, et au mélange avec de nouvelles populations venues de l’est du continent, constituait un phénomène récent.

Ainsi, l’article en cours de publication par des biologistes de l’université Harvard, annoncé en mars, indique que ce phénomène date d’environ 8 500 ans av. J.-C., les marqueurs de la peau dépigmentée étant absents de tous les hommes fossiles intégrés à l’étude, 83 au total, antérieurs à cette date. Conclusion logique : les auteurs des somptueux dessins des grottes de Chauvet-Pont d’Arc, Lascaux et Altamira, symboles du génie créatif d’Homo sapiens, avaient certainement la peau foncée.

Avaient-ils pour autant les cheveux crépus et les traits négroïdes ? C’est une autre question. Les premiers préhistoriens étaient impressionnés par les proportions corporelles des statuettes féminines préhistoriques d’époque gravettienne (entre 29 000 et 19 000 ans environ).

Leurs fortes masses adipeuses leur rappelaient celles observées chez les femmes Khoisan d’Afrique du Sud, en particulier Saartjie Baartman, la tristement célèbre « Vénus hottentote ». C’est pourquoi sur les bas-reliefs à l’extérieur de l’Institut de paléontologie humaine à Paris, inauguré en 1920, le sculpteur Constant Roux a représenté un homme aux traits négroïdes en train de sculpter la Vénus gravettienne de Laussel (Dordogne), tandis que, sur le mur d’en face, c’est un homme de type caucasoïde qui dessine un bison magdalénien (environ 15 000 ans avant notre ère) de Font-de-Gaume (Dordogne).

Illusion évolutionniste.

On retrouve là l’idée d’une hiérarchie de races supposées, et l’illusion évolutionniste chez les historiens de l’art de l’époque, pour qui la sculpture apparaissait avant la peinture et le réalisme de la figuration se perfectionnait au fil du temps… Singulier retour des débats au fil des générations !

Pourtant, malgré ces évidences biologiques, Cro-Magnon est presque toujours représenté avec la peau claire et, pour ces dames, les cheveux souvent blonds. C’est le cas dans les ouvrages et les articles de vulgarisation, dans les romans et au cinéma : parmi les amateurs de films de préhistoire, lequel oserait nier être resté insensible aux charmes aussi nordiques que plantureux de la belle Raquel Welch dans Un million d’années avant J.-C., sorti en 1966 ?

De la même façon que les premières générations de chercheurs confrontés à la découverte de l’art pariétal paléolithique à la fin du XIXe siècle – les bisons d’Altamira sont connus dès 1878-1879 – n’admettaient pas son ancienneté, car ils déniaient aux hommes préhistoriques la possession des compétences nécessaires, n’existe-t-il pas encore aujourd’hui une réticence, plus ou moins avouée, à représenter ces mêmes artistes sous des traits qui ne seraient pas parfaitement caucasoïdes ?

A la lumière des recherches en préhistoire, il est peut-être enfin temps d’en finir avec ces représentations obsolètes, non seulement synonymes de repli sur soi qui, comme tout repli, conduit à l’asphyxie, mais surtout génératrices au mieux d’une indifférence, au pire d’un rejet, l’un comme l’autre mortifère ?

Produit de migrations et de mélanges.

A l’encontre d’idées reçues tenaces enracinées dans les esprits par des discours d’intolérance, d’exclusion et de rejet plus ou moins assumés, le peuplement de ce que nous appelons aujourd’hui la France apparaît donc, irrémédiablement, comme le produit de migrations et de mélanges de populations qui remontent aux origines de l’humanité.

Comment d’ailleurs pourrait-il en être autrement si l’on considère notre condition de « finistère », territoire situé au bout du continent et qui a de ce fait naturellement constitué une terre d’arrivées successives, et donc d’immigration.

Autant de faits incontournables, qui devraient modifier le regard que nous portons sur les « autres », migrants d’aujourd’hui, et en cela descendants directs de ceux, à la peau foncée, qui occupèrent plus tôt notre territoire, posèrent les fondements de notre civilisation occidentale… et inventèrent au fond des cavités profondes des chefs-d’œuvre qui figurent parmi les plus belles réalisations humaines, admises à juste titre sur la liste du patrimoine mondial.

Pedro Lima est journaliste scientifique, Romain Pigeaud est préhistorien et chercheur associé (université Rennes-1) et Pascal Semonsut est historien, spécialiste de la représentation de la préhistoire.



 

Lire la suite

Comment bidouiller un gène pour soigner la myopathie.

3 Janvier 2016, par Pierre Barthélémy, journaliste au "Monde".

Myopathie

Sur ces images de muscle cardiaque de souris, la dystrophine apparaît en vert fluo. A gauche, chez un animal sain, elle est omniprésente ; au centre, chez une souris atteinte de la myopathie de Duchenne, elle est absente ; à droite, chez une souris malade mais dont certaines cellules ont vu le gène défectueux corrigé, elle est en partie présente. © Christopher E. Nelson et al./Science.

Il y a trois semaines, en faisant le bilan de 2015, la revue Science décernait son titre de percée scientifique de l'année à la technologie d'édition des gènes nommée CRISPR/Cas9. Derrière ce sigle quasi imprononçable se cache une astucieuse et complexe boîte à outils permettant d'aller faire du couper-coller dans l'ADN. Pour schématiser, on a affaire à une sorte de kit moléculaire, dont un des éléments est capable de reconnaître une séquence bien précise du génome et d'y guider un deuxième élément, une enzyme (le Cas9 du sigle), laquelle coupera les deux brins de la double hélice d'ADN à l'endroit ou aux endroits prévus. On pourra ainsi retirer une mutation génétique intempestive ou bien insérer un troisième élément – par exemple un correctif pour le gène défectueux. Ensuite, grâce à un de ses mécanismes de réparation de l'ADN, la cellule "recollera" naturellement les bouts.

En accordant ce titre à CRISPR/Cas9, Science ne croyait pas si bien dire – ou bien avait une idée derrière la tête. En effet, au dernier jour de 2015, le 31 décembre donc, la revue a publié une rafale de trois études réalisées par trois équipes américaines différentes qui ont toutes exploité ce traitement de texte génétique afin de soigner, avec un certain succès, des souris génétiquement modifiées pour développer la plus connue et aussi la plus grave de toutes les myopathies, la myopathie de Duchenne, aussi appelée DMD pour dystrophie musculaire de Duchenne.

Cette maladie génétique est due à une coquille dans l'écriture du gène codant pour la dystrophine, une protéine qui permet, en temps normal, à la cellule musculaire de maintenir l'intégrité de sa membrane pendant la contraction du muscle. Chez les personnes atteintes de la myopathie de Duchenne, le gène de la dystrophine étant mal rédigé – en général parce qu'une petite partie du code a disparu –, la machinerie cellulaire censée le lire n'y parvient pas et la protéine n'est tout simplement pas produite. Cela fait songer à un sac doté d'une fermeture à glissière à laquelle manquerait quelques dents : impossible de l'ouvrir. Comme on peut le voir chaque année au cours du Téléthon, les conséquences de cette anomalie sont terribles. Au bout de quelques années de vie, les muscles dégénèrent. Cet affaiblissement musculaire progressif empêche les personnes touchées – essentiellement des garçons car le gène en question est porté par le chromosome X que les individus mâles n'ont qu'en un seul exemplaire – de se déplacer et provoque leur mort précoce par défaillance du système cardio-respiratoire.

Le gène de la dystrophine étant très long, il s'avère difficile de tenter une thérapie génique classique qui consisterait à le faire entrer tout entier dans la cellule pour l'échanger contre le défectueux. D'où l'idée d'une petite "bidouille", d'une réparation légère, qu'ont eue les trois équipes qui publient leurs résultats dans Science : utiliser CRISPR/Cas9 pour faire sauter la partie mutée – et heureusement non essentielle – du gène. En effaçant l'élément illisible sur lequel bloquait la machinerie censée décoder le matériel génétique et le transcrire en dystrophine, on restaurera la fabrication de cette protéine indispensable au bon fonctionnement du muscle. Dans la pratique, ces chercheurs ont fait embarquer leur kit moléculaire à bord de virus ayant une attirance particulière pour les cellules musculaires. Ils ont ensuite injecté leur mixture à des souris malades, puis ils ont attendu. Au bout de quelques semaines, ils ont pu observer que, dans les muscles de ces rongeurs, se synthétisait de la dystrophine, inexistante jusqu'alors. Certes, la restauration était modeste et ne touchait que quelques pourcents des cellules, mais c'était suffisant pour constater une amélioration de la contraction musculaire chez les animaux traités, par rapport à ceux qui ne l'avaient pas été.

Une question se pose cependant : pourquoi ces équipes n'ont-elles pas fait la correction complète du gène en embarquant dans leur kit moléculaire le bout d'ADN bien écrit ? Pour y répondre, il faut savoir que la cellule a deux moyens différents de réparer une double hélice d'ADN une fois qu'elle a été sectionnée – ici par Cas9. Le premier, dit "réparation par jonction d'extrémités non homologues", est celui qui a été exploité lors de ces études. Ce mécanisme est un simple raboutage qui se contente de recoller les morceaux d'ADN sans trop se demander si cela sera lisible après (heureusement, les chercheurs y ont pensé à sa place). Avec le second moyen, dit "réparation par recombinaison homologue", la cellule va redonner à la molécule d'acide désoxyribonucléique sa forme initiale. Pour éviter qu'elle reproduise le défaut d'origine, il faut donc intégrer au kit de CRISP/Cas9 un modèle, correctement rédigé, de ce à quoi l'ADN doit ressembler une fois le recollage effectué. Mais il y a un hic :  en effet les cellules musculaires adultes ont perdu ce mécanisme de réparation-là en perdant leur capacité à se diviser... Pour une thérapie génique complète, il faudra donc trouver autre chose.

En attendant, ces trois études, même avec des résultats assez modestes, sont une preuve que la myopathie de Duchenne est soignable grâce à CRISPS/Cas9, notamment parce que, dans le cas de ces souris, des cellules du muscle cardiaque aussi se sont mises à fabriquer de la dystrophine. Les auteurs de ces travaux soulignent tous que cette technologie serait à même d'améliorer l'état de santé de 80 % des personnes atteintes de la DMD en restaurant, ne serait-ce que partiellement, l'expression de la protéine dans les muscles. Il faudra bien sûr vérifier que la technologie du couper-coller n'a pas fait de bêtise ailleurs dans le génome des cellules. Dans un des trois articles de Science , les chercheurs ont surveillé dix sites potentiellement modifiables par CRISPS/Cas9, ainsi que les spermatozoïdes des souris mâles, et ils n'ont trouvé aucune altération. Ils précisent néanmoins qu'il serait prudent d'effectuer un séquençage complet du génome pour valider la sûreté de cette approche thérapeutique.

Ainsi que l'a déclaré Charles Gersbach, chercheur à l'université Duke (Durham, Caroline du Nord) et responsable d'une des trois études, "i"il reste encore une quantité significative de travail à effectuer avant de transformer ceci en une thérapie pour l'humain." "Quantité significative de travail" l est un euphémisme. Il faudra des années pour montrer que cette voie est correcte, la tester sur des modèles de myopathie de Duchenne plus complexes, s'assurer que les vecteurs viraux sont inoffensifs, les rendre plus efficaces, passer à des tests sur des mammifères plus gros que des souris, pour, éventuellement, si tous ces obstacles sont franchis avec succès, envisager des essais cliniques sur l'homme... Malheureusement, et c'est forcément plus tragique dans la recherche médicale, ou des malades attendent, il y a toujours un gouffre temporel entre le travail fondamental et sa traduction concrète... si jamais elle vient.

 

 

 

Lire la suite

L’homme dont le fils était de lui… sans l’être.

Par Pierre Barthélémy, journaliste au "Monde".

En temps normal, l'histoire, racontée sur le site Buzzfeed, pourrait n'être que la mise au jour d'un banal cocufiage. Elle commence ainsi : Monsieur et Madame X (ils ont voulu rester anonymes) sont américains et ont un fils, né en juin 2014. Or l'on s'aperçoit que ce dernier est du groupe sanguin AB alors que ses parents sont tous les deux du groupe A. Un test de paternité effectué à partir de cellules de Monsieur X récoltées à l'intérieur de sa joue confirme qu'il n'est pas le père. La conclusion la plus élémentaire conduit à penser qu'à moins qu'il y ait eu un improbable échange d'enfant à la maternité sur le mode La vie est un long fleuve tranquille, Madame X a trompé son mari avec un monsieur qui a fourni le B au bébé. Et l'histoire, pas très palpitante au bout du compte, s'arrête ici. En réalité, dans ce cas particulier, elle ne fait que commencer. Parce que Madame X n'a pas trompé son mari et que, pour cette grossesse, ils ont eu recours à une fécondation in vitro (FIV).

 La première réaction logique, qui est celle de ce couple, consiste à se dire que la clinique où la FIV a été pratiquée a interverti les éprouvettes de sperme et malencontreusement fait rencontrer à l'ovule de Madame X un spermatozoïde qu'il n'aurait jamais dû croiser sur sa route. Le couple prend un avocat et un second test de paternité est fait, dont le résultat est analogue à celui du premier. Cependant, la clinique écartant catégoriquement la possibilité d'une erreur de manipulation, Monsieur et Madame X entrent en contact avec Barry Starr, généticien à l'université Stanford (Californie) et co-animateur du site "Understanding Genetics" (Comprendre la génétique). Celui-ci leur conseille de faire pratiquer un test un peu plus approfondi, un test généalogique.

Les résultats sont à tomber par terre. Si on les croit, Monsieur X n'est pas le père de cet enfant... mais son oncle ! Pour n'importe qui, c'est à n'y rien comprendre. Pour un généticien, c'est la solution qui s'allume et elle a pour nom chimérisme. Référence à la chimère de la mythologie grecque qui faisait, en un animal monstrueux, se mélanger un lion, une chèvre et un serpent, le chimérisme désigne un organisme dans lequel cohabitent deux lignées génétiques. Un organisme porteur de deux génomes. Monsieur X est une chimère, sans que personne ne s'en soit jamais aperçu auparavant.

Voici ce qui s'est très probablement passé : dans le ventre de sa mère, Monsieur X avait un faux jumeau – porteur, dans son groupe sanguin, du fameux B dont tout est parti. Ce second embryon n'a pas survécu mais certaines de ses cellules ont été absorbées, assimilées par l'organisme de ce qui allait devenir Monsieur X, lequel a par la suite fabriqué des cellules porteuses des gènes de ce frère jumeau qui n'est jamais né. Monsieur X est donc bien le père de son enfant, en ce sens qu'il a produit le spermatozoïde qui a fécondé l'ovule, mais il ne l'est pas complètement en ce sens qu'il ne lui a pas transmis le matériel génétique qui le constitue principalement. Dans environ 10 % des spermatozoïdes que Monsieur X fabrique, c'est l'ADN de son "frère" qui s'exprime. Si l'on veut glisser un soupçon supplémentaire de sensationnel dans cette histoire qui l'est déjà, on peut résumer l'affaire en écrivant que, d'une certaine façon, le petit garçon né en 2014 est le fils d'un fantôme...

Le cas de Monsieur X est exceptionnel mais pas unique. En 2002, une étude publiée dans le New England Journal of Medicine racontait l'histoire d'une femme de 52 ans atteinte d'une grave maladie rénale. On testa donc son entourage pour savoir s'il existait des donneurs compatibles. Pour découvrir que deux des trois fils auxquels elle avait donné le jour n'étaient, sur le plan génétique du moins, pas les siens, mais ceux d'une sœur jumelle elle aussi fantôme. Barry Starr et ses collèguessoulignent que, dans le cas de Monsieur X, c'est la première fois que le chimérisme est découvert après avoir trompé un test de paternité. Ces chercheurs se demandent si, en raison de la multiplication des procréations médicalement assistées (PMA), où plusieurs embryons sont souvent transférés dans l'utérus des femmes qui y ont recours, on ne risque pas de multiplier également les cas de chimérisme ainsi que les faux résultats aux tests génétiques pourtant censés être infaillibles...

Pierre Barthélémy.

Lire la suite

Une dent trouvée à Tautavel devient «le plus vieux reste humain de France».

Par Camille GÉVAUDAN 28 juillet 2015 à 11:59.

Ce vestige humain, âgé de 550 000 ans, est bien plus vieux que les os et crânes humains déjà découverts dans cette grotte des Pyrénées-Orientales.

C’est par un tweet que le musée de Tautavel a annoncé la nouvelle hier : «Découverte. Une dent de 550 000 ans, le plus vieux reste humain trouvé en France.» Ce vestige absolument exceptionnel a été mis au jour dans la Caune de l’Arago, site archéologique situé aux environs de Perpignan (Pyrénées-Orientales).

Les fouilles ont commencé dans les années 1960 à la grotte de Tautavel, qui surplombe les gorges du Verdouble. Juste au-dessus de la rivière, proche d’un gué où passaient de délicieux herbivores, c’était un abri de rêve pour les chasseurs-cueilleurs du Pléistocène moyen, période de la préhistoire courant entre -781 000 ans et -126 000 ans.

Plus spécifiquement, l’homme préhistorique qui habitait la grotte il y a 300 000 à 450 000 ans a été nommé «homme de Tautavel» après la découverte par l’archéologue Henry de Lumley et son équipe de dizaines de fragments fossiles, provenant notamment de crânes. La star des restes humains porte le surnom d’Arago 21 : c’est un crâne remarquablement complet, sorti en 1971 et complété en 1979 par un os pariétal qui s’y emboîtait à la perfection, comme dans un puzzle. A l’époque de leur découverte, ils marquaient à -450 000 ans les plus anciennes preuves d’une présence d’hominidés en France.

La Caune de l’Arago est toujours fouillée chaque été. Outre des kilos de restes d’animaux des climats froids et des outils en pierre, les travaux de ces dernières années ont permis de mettre au jour des mandibules humaines (os de la mâchoire inférieure), un humérus, un fémur et un péroné, puis une incisive l’an dernier… Les trouvailles dépendent de la strate fouillée. Principe de base en archéologie : plus c’est profond, plus c’est vieux.

«Cette année, les niveaux les plus anciens en cours de fouille correspondent à une période froide, sèche, ventée, d’environ 560 000 ans», explique le site de Tautavel dans un communiqué. A cette époque, «les chasseurs acheuléens ont abandonné dans la grotte les restes de leurs repas : chevaux, rennes, bisons, rhinocéros, mouflons… Ces niveaux d’occupation sont jonchés d’ossements d’animaux désarticulés, fracturés et de pierres taillées utilisées sur place. Or, jeudi, c’est une dent humaine qui est apparue parmi ces vestiges.»

D’un âge estimé à 550 000 ans, elle est donc 100 000 ans plus vieille que les premières traces de l’homme de Tautavel dont on disposait. D’où le caractère exceptionnel de sa découverte. C’est une incisive inférieure centrale, provenant d’un corps d’adulte, bien usée. «Cette dent permettra aux chercheurs, via l’étude des caractères internes par imagerie 3D entre autres, de mieux caractériser la morphologie des premiers européens», précise-t-on à Tautavel. Sur place, les fouilleurs bénévoles espèrent bien dégager d’autres fossiles du même type cachés derrière la dent. L’excitation est à son comble.

 

 

Lire la suite

Découverte d’un nouvel australopithèque en Ethiopie.

Le Monde.fr | 27.05.2015 à 19h06 • Mis à jour le 27.05.2015 à 20h49. |
Par Hervé Morin.

Le passé des hominidés est décidément foisonnant de diversité : la découverte d’un nouvel australopithèque, Australopithecus deyiremeda, vient d’être annoncée dans la revue Nature du jeudi 28 mai. Vieux de 3,4 millions d’années, il vivait en Ethiopie à la même époque que les australopithèques de l’espèce afarensis, dont la célèbre Lucy, mise au jour à 35 km de distance seulement. Mais il était aussi le quasi contemporain de plusieurs autres hominidés peuplant alors l’Afrique.

Le nouveau venu a été découvert en mars 2011 par l’équipe de Yohannes Haile-Selassie (Muséum d’histoire naturelle de Cleveland, université Case Western Reserve), dans la région de l’Afar, à quelques centaines de kilomètres au nord-est d’Addis Abebba. Il n’est connu que par des fragments de mâchoires et quelques dents, appartenant à au moins deux individus, qui émergeaient à la surface du sol.

Pour Yohannes Haile-Selassie et ses collègues, la morphologie de ces ossements les rattache au genre des australopithèques, mais permet de définir une espèce nouvelle, baptisée deyiremeda, signifiant « proche parent », en langue afar.

Sa découverte va de fait compliquer un peu plus le tableau de famille des hominidés à cette époque, le pliocène moyen. Qu’on en juge : on connaissait déjà Lucy et ses semblables, les Australopithecus afarensis, descendants supposés d’Australopithecus anamensis. Mais il y avait aussi Australopithecus bahrelghazali, découvert par l’équipe du Français Michel Brunet, au Tchad, en 1996. Surnommé Abel et vieux de 3,6 millions d’années, il est connu grâce à une mâchoire inférieure partielle. Et encore Kenyanthropus platyops, un crâne de 3,4 millions d’années découvert en 2001 sur le site de Lomekwi – à 1 kilomètre seulement d’un lieu où ont tout récemment été mis au jour les plus anciens outils de pierre connus, vieux quant à eux d’environ 3,3 millions d’années.

Il faut compter à la même époque avec un pied découvert lui aussi en Ethiopie, en 2012, par l’équipe de Haile-Selassie, daté à 3,4 millions d’années. « Malheureusement, écrit le chercheur, ces ossements et ceux d’Australopithecus deyiremeda, trouvés sur le même site, ne sont pas clairement associés », si bien que le pied solitaire n’a pas encore trouvé son propriétaire légitime !

« Il y a désormais une preuve indiscutable que plusieurs espèces d’hominidés ont vécu au même moment en Afrique de l’Est ».

Les branches de notre arbre généalogique se chargent donc régulièrement de nouveaux arrivants, sans que la position des uns par rapport aux autres soit bien claire. Lucy, que le grand public considère souvent comme notre ancêtre directe – ce dont la plupart des paléontologues doutent – se voit plus encore reléguée par ce nouveau cousin sur un rameau mort. Quoi qu’il en soit, insistent Haile-Selassie et ses collègues, « il y a désormais une preuve indiscutable que plusieurs espèces d’hominidés ont vécu au même moment en Afrique de l’Est », et ce avec une grande proximité géographique.

Comment expliquer une telle diversité d’animaux très proches sur le plan morphologique, dans un écosystème commun ? « Une séparation des niches écologiques, impliquant une diversité des préférences alimentaires, des stratégies de recherche de nourriture, de choix d’habitat et de mouvements de population, sera probablement un facteur-clé », répond Fred Spoor (University College de Londres) dans un article de commentaire.

Retourner sur le terrain.

Mais faire le lien entre ces caractéristiques et les différences morphologiques ou moléculaires observées sur les fossiles risque d’être délicat, admet-il. A moins que l’on ne parvienne à identifier le fabriquant des premiers outils de pierre kényans – la maîtrise d’une telle technologie ayant sans doute conféré à ses inventeurs un avantage décisif pour le charognage et l’alimentation carnée. Mais là encore, les débats risquent d’être vifs entre paléontologues. Seule solution : « retourner sur le terrain, pour trouver de nouveaux fossiles », concluent Haile-Selassie et ses collègues.

4641889 6 46c2 fragment de machoire superieure du premier e0177142ab95fd512124e6422c7c473dMâchoire supérieure d'Australopithecus deyiremeda.

Voir la vidéo sur cette découverte en cliquant ici : https://www.youtube.com/watch?feature=player_embedded&v=W49r54ZYWFw

 

Lire la suite

Le fossile « Little foot », un pied dans le berceau de l’humanité.

LE MONDE | 01.04.2015 à 19h15 • Mis à jour le 01.04.2015 à 19h49 | Par Hervé Morin.

« Little Foot » est âgé de 3,67 millions d’années. La nouvelle datation de cet hominidé, avancée dans la revue Nature jeudi 2 avril, relance l’Afrique du Sud dans la course aux australopithèques les plus anciens. Et constitue un nouvel épisode de la saga scientifique entourant ce fossile hors du commun, l’un des plus complets, avec 90 % du squelette retrouvé, mais qui reste méconnu car sa description scientifique détaillée n’a pas encore été publiée.

Little Foot, alias StW 573, rattaché à l’espèce Australopithecus prometheus, a en effet été découvert dans des conditions improbables : en septembre 1994, Ron Clarke (université de Witwatersrand, Johannesbourg) trouve, dans des caisses d’ossements classés comme « animaux », quatre os qu’il attribue à un pied gauche d’hominidé. Son mentor, Philippe Tobias (1925-2012), le baptisera « Petit pied ». Trois ans plus tard, nouvelle trouvaille dans des boîtes en provenance du même site, la grotte de Silberberg à Sterkfontein, dans le nord du pays : plusieurs os de pied et un fragment de tibia droit sont attribués au même individu par Ron Clarke. Il envoie ses assistants dans cette grande caverne, où ils ont la chance extraordinaire de retrouver ce qui ressemble au reste du squelette pétrifié.

4607719 6 fe8e le crane de little foot representant de 1551e2a151374e33fdd0034acf191767

Accumulation des sédiments.

Pris dans une gangue de roche, les ossements ne seront dégagés de la cavité qu’en 2010, mais il reste encore du travail avant qu’ils soient totalement débarrassés des sédiments calcifiés qui les recouvrent. Cette exhumation au long cours s’est accompagnée de plusieurs tentatives de datation, successivement remises en question.

« En Afrique du Sud, la datation est plus difficile, car les fossiles se trouvent dans des grottes, où l’accumulation des sédiments est parfois complexe à interpréter. »

« En Afrique de l’Est, les datations sont relativement aisées, car il y a eu fréquemment des retombées volcaniques qui ponctuent la stratification, explique Laurent Bruxelles (Institut national de recherches en archéologie préventive, CNRS), qui cosigne l’article de Nature. Mais en Afrique du Sud, c’est plus difficile, car les fossiles se trouvent dans des grottes, où l’accumulation des sédiments est parfois complexe à interpréter. »

Little Foot en offre un exemple parfait : cet hominidé a probablement trouvé la mort en faisant une chute de trente mètres dans une des nombreuses grottes de Sterkfontein. Il a rapidement été recouvert par des cailloux, qui ont maintenu le squelette en place – un cas de figure exceptionnel. Puis l’érosion, les infiltrations et  les coulées stalagmitiques l’ont enseveli dans un complexe tombeau rocheux.

Qu’on en juge : une première datation faisant appel au paléomagnétisme en 1997 lui donne 3,3 millions d’années. Ensuite, Darryl Granger (université Purdue, Indiana) propose une date de 4 millions d’années en 2003, considérée par beaucoup comme trop ancienne. Puis en 2006, le rapport uranium/plomb de coulées stalagmitiques donne 2,2 millions d’années.

Il a fallu reconstituer l’histoire géologique de la cavité

« Cela remettait en question la place de ce fossile dans l’histoire humaine », raconte Laurent Bruxelles. C’est alors que Ron Clarke, qui ne croit pas au verdict des dernières datations, fait appel au géo-archéologue français. « Avant d’aller en Afrique du Sud, connaissant bien les grottes karstiques en France, j’étais assez confiant, se souvient l’intéressé. Mais sitôt arrivé, j’ai compris que j’en avais pour dix ans, car cette grotte est très compliquée. »

 

Datation cosmogénique.

Il lui aura fallu un peu moins de temps pour reconstituer l’histoire géologique de la cavité, et s’apercevoir que des variations dans le climat avaient pu entraîner des formations de calcites, puis leur dissolution, avant qu’un revirement climatique ne favorise l’accumulation de stalactites, « qui ont rebouché les trous créés ». Armée de cette nouvelle stratigraphie, l’équipe eut la certitude que Little Foot avait plus de trois millions d’années, ce qu’elle a annoncé en 2014.

 
Restait à le confirmer, en soumettant des fragments de quartz à la question, avec la technique de datation cosmogénique de Granger, améliorée par Marc Caffee, lui aussi de l’université Purdue. Le terme cosmogénique signifie que cette méthode s’appuie sur l’analyse de roches comme le quartz qui, bombardées par des rayons cosmiques lorsqu’elles affleurent à la surface de la terre, se chargent en isotopes radioactifs, notamment l’aluminium 26 et le béryllium 10. Une fois enfouies, elles se « déchargent », selon une période qui est différente pour chaque isotope. En comparant les concentrations de ces isotopes, on peut déduire le moment où ils n’ont plus été exposés aux rayons cosmiques.

 Cela soulève d’intéressantes questions sur la diversité des premiers hominidés. »

Plus vieux que Lucy.

Il suffisait donc de choisir des cailloux qui avaient chuté dans la grotte avec « Little Foot » pour dater sa mort. Ils indiquent qu’avec 3,67 millions d’années (+ ou - 160 000 ans), le fossile était contemporain des premiers Australopithecus afarensis alors présents en Afrique de l’Est (Tanzanie et Ethiopie), dont fait aussi partie la célèbre Lucy, un peu plus jeune (3,2 millions d’années). Sur le plan morphologique, Little Foot est différent, avec son visage plat et allongé et ses dents jugales (molaires et prémolaires) bombées. « Cela soulève d’intéressantes questions sur la diversité des premiers hominidés et leurs relations phylogénétiques [les liens de parenté évolutifs] », concluent les signataires, sibyllins.

Cette nouvelle datation, c’est un peu la revanche de Ron Clarke, car « Little Foot » est désormais suffisamment vieux pour rejouer dans la cour des « grands anciens », si ce n’est postuler au rang d’ancêtre des premiers « Homo », dont on vient de découvrir une mâchoire en Ethiopie, vieille de 2,8 millions d’années.


Little Foot n’est pas l’ancêtre du genre humain.

Si « Little Foot » se trouve au cœur du « Berceau de l’humanité », une dénomination attribuée par l’Unesco à la région fossilifère de Sterkfontein, Pascal Picq doute que « Little Foot » ait joué ce rôle, car « il est trop australopithèque pour cela ». Mais le paléoanthropologue ne cache pas sa perplexité face aux dernières découvertes : « On a de plus en plus de fossiles et, paradoxalement, on voit de mieux en mieux les trous dans leur parenté. » Comme si, tant en Afrique de l’Est qu’en Afrique du Sud, le tableau des australopithèques se complexifiait de façon parallèle, « sans que le passage au genre Homo se clarifie ».

Pour le paléontologue français Yves Coppens aussi, « Little Foot » ne peut prétendre être l’ancêtre du genre humain. « Les premiers pré-humains, rappelle-t-il, ce sont Toumaï au Tchad, à 7 millions d’années, Orrorin, au Kenya à 6 millions d’années. » Parmi les divers australopithèques apparus ensuite, c’est l’assèchement du climat, vers 4 millions d’années, qui a selon lui décidé du destin de ces lignées, avec un sort un peu similaire à l’Est et au Sud, où des formes plus robustes, aux grosses dents adaptées aux graminées, et toujours dotées de petits cerveaux, sont apparues. « Mais en Afrique de l’Est, il y a aussi l’émergence du genre Homo, avec des dents plus petites de carnivore, et un plus grand cerveau », souligne-t-il. Pour autant, la datation absolue de Little Foot lui semble une avancée notable : « On va pouvoir faire des corrélations de grande valeur avec d’autres régions, qu’on attend depuis longtemps. »

« Tout le monde veut avoir découvert son ancêtre, c’est humain »

« A chaque fois qu’on évoque le berceau de l’humanité, on force un peu la mise. Tout le monde veut avoir découvert son ancêtre, c’est humain », indique Yves Coppens. Pour lui, même si l’Afrique de l’Est tient la corde, c’est toute la région africaine touchée par ce changement climatique qui est susceptible de mériter cette dénomination.

Pour le géoarchéologue Laurent Bruxelles aussi, la notion de « berceau de l’humanité » ne doit pas être prise au pied de la lettre. « C’est plutôt une large zone en Afrique où les fossiles ont pu être conservés par la géologie. » Lui-même prépare une expédition en Namibie, où il espère bien découvrir d’autres ancêtres putatifs.

Lire la suite

Ce papillon qui se joue du sonar des chauves-souris.

22 février 2015, par Pierre Barthélémy.(Journaliste au "Monde").

Cela dure depuis plus de 60 millions d'années. Depuis tout ce temps, chauves-souris d'un côté, papillons de nuit de l'autre, sont engagés dans une course aux armements, les premières pour perfectionner les outils acoustiques de détection de leurs proies volantes, les seconds pour se soustraire aux attaques de leurs prédateurs. La majorité des chiroptères se servent ainsi d'un sonar à ultrasons pour localiser les insectes dans l'obscurité. Côté papillons de nuit, près de la moitié des quelque 140 000 espèces connues ont développé un système auditif leur permettant de détecter l'usage dudit sonar. On a également découvert en 2013 que plusieurs lépidoptères produisaient eux-mêmes des ultrasons pour "brouiller" les ondes exploitées par les chauves-souris. Il n'en reste pas moins qu'un grand nombre d'espèces de papillons semblent ne pas avoir de défense contre les mammifères volants.

Parmi elles on trouve notamment certains membres de la famille des saturnidés, qui intriguent les biologistes en raison des très grands appendices qui prolongent leurs ailes inférieures, un peu comme des queues. Dès 1903, l'entomologiste américain Archibald Weeks s'interrogeait sur la fonction des "extensions" du papillon lune (en photo ci-dessus) et supputait qu'elles pouvaient sauver la vie de son porteur : en étant prises pour cibles, ces parties de l'aile pouvaient être aisément sacrifiées sans que la vie de l'insecte soit compromise, un peu comme certains lézards arborent un bout de queue vivement coloré pour dévier les attaques de leur prédateurs vers un morceau non crucial et détachable de leur anatomie. Dans une étude publiée le 17 février dans les Proceedings of the National Academy of Sciences (PNAS), une équipe américaine est allée plus loin encore en émettant l'hypothèse que les appendices flexibles et ondulants du papillon lune modifient la signature acoustique de ce dernier et, en lui donnant un aspect allongé sur le sonar des chauves-souris, détournent les attaques de celles-ci vers... le vide.

Pour mettre cette hypothèse du leurre à l'épreuve, ces chercheurs ont monté une expérience de prédation relativement basique, que d'aucuns pourront trouver cruelle : ils ont opposé plusieurs dizaines de ces papillons aux ailes émeraude à huit grandes chauves-souris brunes (Eptesicus fuscus). La moitié des lépidoptères avaient leurs appendices coupés – ce qui ne les handicape pas et modifie peu les caractéristiques de leur vol – tandis que les autres individus étaient intacts. Des pyrales, papillons sans appendices, étaient utilisées comme groupe de contrôle. L'idée des chercheurs était de filmer sous des angles différents, grâce à trois caméras infra-rouge, les tentatives de prédation, de déterminer où les chiroptères portaient leurs attaques et de calculer leur pourcentage de réussite suivant la silhouette de leurs proies. Pour que les papillons ne se sauvent pas et restent dans le champ des caméras, ils étaient reliés au plafond par un filin.

Les résultats sont plutôt éloquents. Lorsque les papillons lunes avaient conservé leurs appendices, seulement 34,5 % d'entre eux étaient mangés. Dans un certain nombre de cas, les chauves-souris parvenaient à leur arracher ces extrémités d'ailes mais les insectes restaient en vie sans être trop abîmés. En revanche, lorsque les lépidoptères avaient été privés de leurs "queues", le taux de réussite de leurs prédateurs grimpait en flèche et passait à 81,2 % (et il montait à 97,5 % avec les pyrales du groupe témoin). Les prises de vue montrent que, dans le premier cas, les chiroptères ont tendance à passer sous le papillon (voir la vidéo ci-dessous, extraite de l'étude) tandis que dans le second cas, ils visent davantage le milieu du corps de l'insecte.

Les appendices du papillon lune semblent donc réellement servir de parade anti-sonar même si les chercheurs ne sont pas parvenus à déterminer exactement la manière dont ils agissent sur l'outil de détection des chauves-souris : ne font-ils que déporter la cible vers le bas ou bien créent-ils l'illusion de cibles multiples à la manière des leurres employés contre les missiles anti-aériens ? L'étude n'a pas permis de trancher. Ses auteurs ont en revanche réussi à déterminer que l'apparition de ces extensions s'est produite de manière indépendante chez plusieurs espèces de papillons de nuit, comme par exemple
l'africain Eudaemonia troglophylla (photo ci-dessous© Expédition Sangha 2010). Les chercheurs ont également la certitude que l'évolution de la forme de l'aile du papillon lune s'est faite sous la pression de la prédation. En effet, ces appendices ne jouent aucun rôle dans la reproduction car il n'y a pas de parade nuptiale chez cet insecte, la femelle s'accouplant littéralement avec le premier venu. De même, les appendices ne procurent aucun avantage pour le vol. Il se pourrait même qu'en raison de leur inertie, ils réduisent la fréquence des battements d'ailes. Un handicap qui serait plus que compensé par la protection contre les chauves-souris qu'ils apportent.

Chris palmer

 

 

5435817785 f9d3b6e01b o

                                                                                     Eudaemonia Troglophylla.

 

 

Lire la suite

Les députés britanniques autorisent la conception de bébés à partir de trois ADN.

Le Monde | 03.02.2015 à 15h13 • Mis à jour le 04.02.2015 à 11h09 | Par Paul Benkimoun.

Les parlementaires du Royaume-Uni se sont prononcés, mardi 3 février, en faveur du projet d’assistance médicale à la procréation destinée à prévenir la transmission de maladies génétiques d’origine maternelle. Familièrement baptisée fécondation in vitro « à trois parents », elle consiste à remplacer dans l’œuf les petites structures appelées mitochondries, présentes dans toutes les cellules à qui elles fournissent l’énergie dont elles ont besoin. Certaines maladies sont en effet liées à des mutations affectant l’ADN des mitochondries. L’ensemble des mitochondries de l’embryon sont d’origine maternelle.

Que sont les maladies mitochondriales ?

Constituant des centrales à énergie permettant la synthèse des protéines et d’autres molécules, les mitochondries sont des structures présentes dans les cellules, à l’extérieur de leur noyau, dans le cytoplasme. Elles possèdent leur propre ADN, toujours hérité de la mère. Les mutations de cet ADN mitochondrial (ADNmt) sont responsables d’un ensemble de plus de 700 maladies métaboliques non curables à ce jour et pour certaines potentiellement mortelles dans l’enfance. Elles peuvent se manifester sur le plan neurologique, neuromusculaire, des atteintes ophtalmiques (neuropathie optique de Leiber), des anémies, de la surdité…

Selon l’Autorité britannique sur la fécondation humaine et l’embryologie (HFEA), environ une naissance sur 5 000, et vraisemblablement une proportion plus importante de fœtus, présente une mutation de l’ADNmt. Toujours selon la HFEA, il est possible d’avoir un recours à un diagnostic pré-implantatoire, sélectionnant les embryons n’ayant que très peu de mutations de l’ADNmt, mais cela suppose d’avoir préalablement identifié la mutation en cause. 

En quoi consiste la technique de remplacement des mitochondries ?

Si le problème est lié aux mitochondries, se sont dit des chercheurs britanniques de l’université de Newcastle, remplaçons-les, plutôt que de faire appel à un classique don d’ovocyte de la part d’une donneuse. L’idée était de conserver le patrimoine génétique maternel, porté par les chromosomes qui se trouvent dans le noyau cellulaire. Pour cela, les chercheurs ont eu recours à la technique du transfert nucléaire.

Le procédé consiste à partir d’un ovocyte de la mère, contenant donc des mitochondries porteuses de la mutation incriminée. L’ovocyte est fécondé par un spermatozoïde paternel, puis, le noyau de l’œuf obtenu est prélevé. Un ovocyte provenant d’une donneuse, indemne de la maladie, a lui aussi été fécondé avant d’être débarrassé de son noyau. Le noyau comprenant la part de patrimoine génétique d’origine maternelle est alors transféré dans l’œuf provenant de la donneuse.

L’œuf qui en résulte comporte donc un noyau recelant les patrimoines génétiques de la mère et du père, et un cytoplasme dont les mitochondries contiennent l’ADN de la donneuse exempt de mutations. Donc, trois ADN, celui de la donneuse étant ultra-minoritaire.

Une autre technique existe, où le transfert est effectué à partir d’ovocytes, l’un maternel, l’autre de la donneuse, l’ovocyte résultant étant ensuite fécondé par un spermatozoïde paternel.

Aux Etats-Unis, une demande d’autorisation d’un essai clinique utilisant cette technique a été soumis en février à la Food and Drug Administration. La FDA n’a pas encore rendu sa décision.

Une technique sûre ?

Dans un communiqué du 22 juillet 2014, annonçant le projet de loi gouvernemental autorisant le recours à la technique de remplacement de mitochondries, la HFEA précise que son panel d’expert, présidé par le Dr Andy Greenfield, avait clairement indiqué dans son rapport de juin 2014 qu’il « n’avait pas trouvé de preuve suggérant que le remplacement mitochondrial ne soit pas sûr et que de bons progrès avaient été accomplis au plan scientifique. » Etudiant les données animales et humaines sur plusieurs années, le panel avait pris en compte les aspects de sécurité liés au transfert lui-même, les réactifs utilisés pour cette technique ainsi que les interactions entre le noyau et les mitochondries.

A cette occasion, le Dr Greenfield a déclaré : « Passer de la recherche à la pratique clinique implique toujours un certain degré d’incertitude. Si le parlement change effectivement la loi, la procédure régulatoire requise par la HFEA avant que le traitement soit proposé garantira, autant qu’il est possible de le faire, que le remplacement des mitochondries marche et est suffisamment sûr pour être proposé aux personnes atteintes de maladies mitochondriales sévères. »

Quelles sont les questions éthiques soulevées ?

Bien que le parlement britannique ait adopté la modification de la loi de 2008 sur l’assistance médicale à la procréation pour autoriser le remplacement des mitochondries, la technique n’en sera pas pour autant immédiatement proposée. Comme toute technique à la pointe de la science, elle doit être encadrée par des dispositions réglementaires que la HFEA doit élaborer. Cette instance de régulation doit concevoir et mettre en œuvre une procédure, définissant notamment un cahier des charges pour les établissements qui seraient autorisés à la pratiquer.

Des questions éthiques sont également soulevées à propos de cette nouvelle technique. Tout d’abord, le fait qu’elle entraîne une modification de ce que l’on appelle la lignée germinale, autrement dit les cellules participant à la fécondation (par opposition à la lignée somatique qui donne les autres cellules de l’organisme). Dès lors, cela signifie que l’ADNmt provenant de la donneuse va également être transmis à la descendance en plus de celui des deux parents.

De ce point de vue, il peut exister une différence entre les deux techniques. Dans celle où le transfert a lieu après la fécondation, l’identité génétique du futur embryon aura donc été établie par les chromosomes paternels et maternels, avant le traitement. Dans celle où le transfert est effectué sur des ovocytes avant fécondation, l’ADN mitochondrial de la donneuse préexiste et l’individu créé sera différent de ce qu’il aurait été avec les seuls deux parents.

Le bénéfice – la non transmission de la mutation – est évident, mais cela peut susciter des interrogations. En particulier le caractère anonyme ou non du don de mitochondries (le don de gamète n’étant pas anonyme). Lors du congrès mondial de bioéthique, le 25 juin 2014 à Mexico, le Dr John Appelby, du centre d’éthique et de législation médicale du King’s College (Londres), a évoqué le fait que le don de mitochondries n’est pas susceptible d’influer significativement sur l’identité et les traits physiques des descendants, qui seraient donc peu enclins à s’enquérir de l’identité de la donneuse de mitochondries. Mais d’un autre côté, pourquoi refuser l’accès à une telle information, s’est-il interrogé.

Des accusations d’eugénisme ont également été avancées comme dans d’autres techniques visant à éviter la naissance d’enfants porteurs de maladies graves. Mais, dans le cas du remplacement de mitochondries par transfert du noyau, il n’y a pas de sélection des embryons, avec élimination de ceux porteurs de la mutation de l’ADNmt.

 

 

Lire la suite

Le fructose est le principal moteur du diabète.

LE MONDE | • Mis à jour le | Par Paul Benkimoun.

Les sucres ajoutés aux aliments et boissons, en tout premier lieu le fructose, font le lit du diabète de type 2. Publiée en ligne jeudi 29 mars dans les Mayo Clinic Proceedings, une analyse des données existantes effectuée par des chercheurs américains est catégorique : « Il existe un énorme corpus de preuves scientifiques, de données d’observation et de résultats d’essais cliniques qui suggèrent que le fructose ajouté – même par rapport à d’autres sucres – est le principal moteur du développement du diabète et de ses conséquences. »

Représentant 90 % des formes de la maladie, le diabète de type 2 a pris des proportions épidémiques dans le monde : environ une personne sur dix dans le monde en est atteinte et la fréquence augmente avec l’âge. Dans le diabète de type 1, une anomalie immunitaire ne permet plus au pancréas de fabriquer de l’insuline, l’hormone permettant aux cellules de stocker du glucose, ce qui augmente le taux de sucre dans le sang. S’installant de manière insidieuse, le diabète de type 2 résulte d’une baisse de la sensibilité des cellules à l’insuline liée à l’obésité et à la sédentarité.

La résistance à l’insuline est associée à une augmentation de la concentration de cette hormone dans le sang (hyperinsulinémie), qui a pour effet de favoriser l’accumulation de graisse abdominale, l’élévation des triglycérides, ainsi que d’autres désordres métaboliques. L’hyperinsulinémie est un facteur de risque cardiovasculaire, corrélée à une diminution de l’espérance de vie de l’ordre de cinq à dix ans.

Sirop de maïs à haute teneur en fructose.

L’étude rappelle que la littérature scientifique montre que « l’ajout de fructose – que ce soit sous forme de saccharose ou de sirop de maïs à haute teneur en fructose – est associé à une série d’effets biologiques indésirables chez l’homme comme chez l’animal ».

Ces données pourraient surprendre s’agissant d’un sucre que l’on trouve naturellement dans les fruits, d’où son nom. Mais le problème vient du fait que dans le sirop de maïs à haute teneur en fructose, ce dernier représente près de 50 % du poids de l’additif sucré, alors qu’il ne constitue qu’1 % du poids d’une pêche mûre, soulignent James DiNicolantonio, du Saint Luke’s Mid America Heart Institute (Kansas City, Missouri), et ses collègues. Outre cette faible concentration, la consommation d’un fruit ou d’un légume entiers apporte également de l’eau, des fibres, des antioxydants, qui sont bénéfiques pour l’organisme.

Dans leur article, les scientifiques précisent qu’aux Etats-Unis environ 40 % des adultes ont déjà un certain degré d’insulinorésistance et à peu près autant développeront un véritable diabète. En France, 4,6 % de la population serait globalement diabétique de type 2 mais l’Institut national de la santé et de la recherche médicale (Inserm) considère que ce pourcentage est « largement sous-estimé », car « 20 % des personnes diabétiques âgées de 18 à 74 ans ne sont pas diagnostiquées. »

Le fructose stimule des modifications métaboliques.

Or, le rôle des sucres que nous ingérons dans des boissons ou des aliments solides, singulièrement celui du fructose, est déterminant dans le développement de ces anomalies. Le fructose stimule des modifications métaboliques qui aiguillent les calories vers le stockage dans les cellules du tissu adipeux abdominal. Ce mécanisme adaptatif avait toute son utilité pour nos lointains ancêtres qui n’avaient pas un accès facile à des aliments nourrissants et n’avaient accès qu’à des quantités limitées de fructose, essentiellement dans des fruits mûrs.

Au cours de l’évolution de l’humanité et surtout dans la période contemporaine où l’ajout de sucres dans l’alimentation s’est largement répandu, cet avantage s’est transformé en inconvénient. D’autant que les industriels de l’alimentation ont largement eu recours à l’ajout de fructose sous différentes formes : d’abord avec le saccharose, sucre associant une molécule de glucose et une de fructose que nous connaissons sous forme de poudre ou de carrés, puis de plus en plus avec le sirop de maïs à haute teneur en fructose, qui peut contenir jusqu’à 65 % de fructose.

Aux Etats-Unis, 25 kg de fructose par habitant par an.

En 2012, une étude de chercheurs américains et britanniques montrait déjà du doigt le rôle de l’ajout de sirop de maïs à haute teneur en fructose dans le développement d’un diabète de type 2 et donnait des chiffres marquants : les Etats-Unis – où environ les trois quarts de l’ensemble des boissons et aliments préemballés contiennent du sucre ajouté – consomment annuellement 25 kg de fructose par habitant. Le Canada, le Mexique, la Belgique ou le Japon figurent également au rang des gros consommateurs. Loin devant la France, l’Australie, l’Inde, la Chine, la Suède ou le Royaume-Uni, qui plafonnent en dessous de 0,5 kg par habitant et par an.

Particulièrement inquiets de la situation dans leur pays, les chercheurs américains affirment : « Aux niveaux actuels, la consommation de sucre et celle de fructose en particulier – à des concentrations et dans des contextes que l’on ne rencontre pas avec les aliments entiers naturels – alimente une épidémie de plus en plus grave de diabète de type 2. » Ils s’inquiètent des recommandations en vigueur aux Etats-Unis : les lignes directrices émises en 2010 estimaient acceptable de consommer jusqu’à 19 % des calories sous forme de sucres ajoutés et l’Institut de médecine américain admet même le plafond de 25 %.

A l’issue d’une consultation publique qui a eu lieu en mars 2014, l’Organisation mondiale de la santé a publié début 2015 des recommandations beaucoup moins laxistes : réduire à moins de 10 % la part des sucres libres (glucides simples comme le fructose) ajoutés dans l’apport calorique total et suggère même de descendre en dessous de 5 %.

 

 

Lire la suite

Une mine d’or se cache dans nos égouts.

18 janvier 2015, par Pierre Barthélémy. (Le Monde).

Mossakoli or

Vous avez tiré la chasse ; votre lave-linge a fini de tourner ; vous avez fait la vaisselle ; vous avez lavé votre voiture ; etc. Toute ces eaux usées se sont évacuées. Elles sont ensuite traitées dans une station d'épuration avant d'être relâchées dans l'environnement où elles reprendront leur place dans le cycle de l'eau. Fin de l'histoire ? Pas vraiment, car si l'eau est partie, la crasse demeure sous la forme de boues d'épuration. Celles-ci peuvent être enfouies, incinérées, compostées ou épandues comme engrais sur les terres agricoles. Cette dernière solution ne va pas sans problèmes parce qu'en plus de l'azote et du phosphore qui peuvent effectivement bénéficier aux cultures, les boues d'épuration contiennent un certain nombre de métaux toxiques pour les écosystèmes... Et si, au lieu d'être un problème, cette présence de métaux constituait un atout ?

C'est la question que vient de se poser une équipe américaine de l'université de l'Arizona dans une étude publiée le 12 janvier par la revue Environmental Science & Technology. Spécialistes de chimie, de biochimie et des questions d'environnement, ces chercheurs se sont demandé si, au lieu de prendre les boues d'épuration pour des déchets ultimes quasiment inutilisables, on ne pouvait pas, au contraire, les considérer comme un minerai à exploiter. Encore faut-il s'assurer que le jeu en vaut la chandelle, savoir quels métaux sont présents dans ces résidus et en quelle quantité.

Pour le déterminer, les auteurs de l'étude ont, en quelque sorte, mis les mains dans le cambouis en effectuant la plus grande analyse jamais entreprise de la composition métallique des boues d'épuration. Ils ont ainsi récupéré des boues collectées en 2001 par l'Agence américaine de protection de l'environnement (EPA) dans 94 stations d'épuration réparties sur 32 Etats et à Washington D.C., un ensemble censé être représentatif de toutes les pollutions possibles aux Etats-Unis. En plus de cela, les chercheurs sont allés faire des prélèvements dans deux stations d'épuration de l'Arizona. Une fois dotés de leurs boues, ils les ont soumises à un traitement de choc (acide nitrique, eau oxygénée, chauffage) pour "digérer" le superflu et ne garder que l'essentiel. Pour doser chaque métal présent, les échantillons ont ensuite été analysés par spectroscopie par torche à plasma.

Les résultats bruts sont assez impressionnants. Pour les exposer clairement, les chercheurs ont tout rapporté à la production d'une ville d'un million d'habitants (ce qui représente, pour donner un ordre de grandeur français, la centaine de communes qui forment l'agglomération niçoise). Les boues d'épuration produites en une année par cette ville contiendraient pour 13 millions de dollars de métaux ! Vingt pour cent de cette somme proviendraient de l'or et de l'argent contenus dans ces déchets. En effet, chaque tonne de ces boues renferme 16,7 grammes d'argent et 0,3 gramme de métal jaune. Si l'on s'amuse à extrapoler ce résultat à l'ensemble des Etats-Unis, lesquels produisent chaque année plus de 8 millions de tonnes de boues d'épuration, on obtient tout de même, par la magie des grands nombres, un total de 2,4 tonnes d'or ! Quand je titre qu'une mine d'or se cache dans les égouts, il faut le prendre au pied de la lettre...

Néanmoins, les auteurs de l'étude soulignent que certains éléments seraient extrêmement difficiles à exploiter. Ils se sont donc concentrés sur les quatorze éléments les plus intéressants à récupérer, à savoir l'argent, le cuivre, l'or, le phosphore, le fer, le palladium, le manganèse, le zinc, l'iridium, l'aluminium, le cadmium, le titane, le gallium et le chrome. Certains pourraient être étonnés d'une telle diversité et de la présence de métaux précieux mais il faut savoir que dans l'environnement se retrouvent les effluents de diverses industries (mines, galvanisation, électronique, fabricants de catalyseurs) et que les eaux pluviales collectent aussi toutes sortes d'éléments, sur les immeubles et au sol. Avec les quatorze éléments susmentionnés, le chiffre d'affaires annuel tiré de l'exploitation des boues dans cette ville d'un million d'habitants serait de 8 millions de dollars.

Voilà pour les résultats bruts. Il y a, on s'en doute, deux correctifs à apporter. Premièrement, pour atteindre ces chiffres, il faudrait parvenir à extraire cent pour cent des métaux prisonniers des boues. Deuxièmement – et c'est sans doute le point crucial de l'affaire –, il faudrait également que le procédé de récupération soit rentable, c'est-à-dire que son coût ne dépasse pas les sommes espérées de la vente des métaux. Or, pour l'instant, il est impossible d'estimer exactement ce coût. Interrogé par Science, le premier auteur de l'étude, Paul Westerhoff, explique que la prochaine étape consistera à "regarder si c'est économiquement et techniquement viable. Nous pensons que ça l'est." Nous attendrons donc encore un peu avant de partir à l'assaut de nos égouts. Néanmoins, ce travail peut nous permettre de changer notre regard sur ce qui sort des stations d'épuration et de le voir non plus comme une cochonnerie mais comme une ressource.

 

Lire la suite

Le cerveau n’oublie rien de la langue des premiers jours.

Amel CHETTOUF 19 novembre 2014 à 18:39.

 

Le cerveau réagit aux sons d'une langue entendue durant les premiers mois de la vie. Il garde des traces même si la langue en question été oubliée par la suite, selon les travaux d'une équipe scientifique canadienne.

La langue maternelle reste à jamais imprégnée dans le cerveau humain, même si elle n’est ni apprise ni parlée par un individu. Même les personnes adoptées dès les premiers mois de leur vie et immergés dans une autre culture, gardent des traces, sans le savoir, de la langue entendue à la naissance. C’est ce qu’ont prouvé des chercheurs du Neurological Institute and Hospital de Montréal à travers une expérience sur le cerveau. Leur étude selon le journal anglais The Independent, est la toute première à utiliser l’imagerie cérébrale pour examiner les effets de langages perdus.

Les neurologues et psychologues canadiens ont comparé les IRM du cerveau de 48 jeunes filles âgées de 9 à 17 ans et appartenant à trois groupes différents: francophones, bilingues français-chinois et nées dans une famille chinoise puis ayant été adoptées et ne parlant que français. Les résultats de l’étude, publiée sur le site Science Daily, révèlent que, lorsqu’elles écoutent du chinois, les filles adoptées ont les mêmes zones du cerveau activées que celles qui le maîtrisent. Elles n’ont pourtant aucun souvenir conscient de cette langue et ne comprennent pas ce qu’elles entendent.

Le cerveau garderait donc bien en mémoire les dispositifs neuronaux créés par la langue maternelle. Jusqu’à présent, on savait déjà que le cerveau du nourrisson construit des représentations des sons qu’il entend, et que l’enfance représente le meilleur moment pour apprendre des langues. Mais la nouveauté apportée par cette étude est le fait que «le cerveau garde ces représentations des années plus tard, même si la personne n’est plus exposée à la langue en question» affirme Lara Pierce, son auteure principale.

Les résultats de cette expérience ne sont pas seulement importants pour la question de l’apprentissage des langues. Ils sont la preuve que les informations acquises durant les premiers mois de la vie peuvent influencer le traitement des données cérébrales durant de nombreuses années. En plus de pouvoir réapprendre une langue perdue avec facilité, l’homme aurait la possibilité de retrouver des compétences oubliées, précise l’étude.

 

Cerveau et langues

 

Lire la suite

L'air parisien égale le tabagisme passif.

C’est l’une des présentations possibles des résultats de mesures des particules dans l’air parisien par un instrument scientifique du CNRS embarqué dans un ballon captif. Cet instrument, le LOAC (Light Optical Aerosol Counter, mis au point au Latmos, un des laboratoires de l’Institut Pierre Simon Laplace) peut compter et mesurer la taille des particules dans la colonne d’air de 0 à 300 mètres d’altitude, indépendamment de leur nature chimique. Il était embarqué dans le ballon Generali (la compagnie d’assurances).

Ce matin, les partenaires (Airparif, CNRS, Generali et la Mairie de Paris) présentaient les résultats de 18 mois de mesures.

Lors de ces 18 mois, deux épisodes majeurs de pollutions, en décembre 2013 et mars 2014 ont eu lieu. Les mesures du LOAC, cohérentes avec celles réalisées en routine par Airparif, ont montré, entre le 9 et le 14 décembre 2013, une pollution moyenne de trois millions de particules fines par litre d’air. Bien plus que les 200.000 d’une journée «normale» à Paris. Avec un record à six millions de particules fines le 13 décembre 2013 à 18H00.

Les particules plus petites qu’un micron sont les plus dangereuses pour la santé, car elles pénètrent plus profondément dans les organismes, dans les poumons, et même au-delà, en passant les barrières. Les épidémiologistes estiment à 42.000, en France, les décès prématurés liés à l’exposition chronique aux particules fines. Des particules qui, montrent les analyses, proviennent pour l’essentiel du trafic automobile.

En revanche, ce sont les circonstances météorologiques qui les accumulent, par manque de dispersion par les vents. Ce qui peut conduire à des concentrations très élevées, similaires à celles du tabagisme passif dans une pièce fermée pour 8 cigarettes, expliquent les scientifiques.

Par Sylvestre Huet, journaliste à « Libération », le 24 novembre 2014.

Pollution paris 3

Pollution paris 2

Pollution paris

Lire la suite

Un cerveau humain qui commande un autre cerveau humain, c'est possible.

Hugo Pascual, journaliste au "Monde". 10 novembre 2014.

VU SUR LE WEB. A l'université de Washington, un chercheur a dicté, par la pensée, les mouvements de la main d'un second chercheur.

 

691966 capture d ecran 2014 11 10 a 145552 jpg

 

 

Le contrôle humain à distance, ce n’est plus de la science-fiction. Des chercheurs de l’université de Washington ont pu transmettre pour la première fois une information simple, directement d’un cerveau humain à un autre. L’expérience, décrite sur le site scientifique Plos One, se sert d’un dispositif «cerveau à cerveau», qui lit et analyse les informations neuronales du sujet dit «émetteur», les décode, les traduit en informations numériques, les transfert au cerveau «récepteur», et entraîne l’action désirée.

Le principe est le suivant : les deux chercheurs sont placés dans deux salles distantes, sans aucun moyen de communication. Le premier est équipé d’un bonnet couvert d’électrodes enregistrant son électroencéphalogramme (mesure de l'activité du cerveau). Le second est équipé d’une bobine de stimulation magnétique transcrânienne, placée près de la partie du cerveau qui contrôle les mouvements de sa main.

L’«émetteur» est placé face à un jeu vidéo, dans lequel il faut détruire un missile avec un tir de canon en pressant la barre espace. Quand la cible apparaît, l’«émetteur» doit alors se concentrer et imaginer le geste qu’il ferait avec sa main. L’ordinateur relié aux électrodes détecte alors les ondes émises par son cerveau afin d’exécuter cette action. Ces informations transitent via le Web jusqu’au casque du «récepteur», qui se retrouve à presser la barre espace au rythme des pulsions neurales de l’émetteur.

«C’était à la fois excitant et inquiétant de voir une action que j’avais imaginée traduite en un geste bien réel, mais par un autre cerveau que le mien», explique Rajesh Rao, «l’émetteur». Andrea Stocco, le «récepteur», décrit quant à lui le mouvement involontaire de sa main comme un «tic nerveux». Mais pour les deux chercheurs, il ne s’agit là que d’un premier pas. «La prochaine étape sera d’avoir une véritable conversation entre les deux encéphales, que la communication ne soit plus unidirectionnelle mais bidirectionnelle», poursuit Rajesh Rao.

Ce n’est pas la première expérience de communication de cerveau à cerveau mise en place. En 2013, Miguel Nicolelis et son équipe avaient réussi à relier les cerveaux de deux rats situés à plus de 6500 kilomètres. Le premier était entraîné à actionner le bon levier, désigné par une lumière, afin de recevoir une récompense. Le second n’avait pas été entraîné. L’expérience a démontré que lorsqu’il était connecté à son congénère, le rat non dressé augmentait sont taux de réussite de 14%, prouvant qu’un signal électrique émit par un cerveau peut être décodé par un autre.

Une autre expérience, hybride, avait relié un cerveau humain à celui d’un rat. L’équipe de chercheurs d’Harvard avait permis au sujet humain de contrôler la queue du rongeur uniquement par la pensée, la faisant se contracter à volonté.

 

Lire la suite

« La Méditerranée connaît les densités de plastiques les plus importantes au monde ».

Chercheur à l’Ifremer, François Galgani étudie les plastiques depuis près de 20 ans. Ce scientifique corse a dédié sa carrière aux dérivés du pétrole. Présent à bord de la goélette cet été, entre la Sardaigne et l’Albanie, il rembarquait récemment pour quelques heures. Un passage éclair qui a permis aux Taranautes d’échanger avec lui autour de la grande table du carré. Extrait de cette discussion. 

Img 6429 plastiques

 

Tu travailles sur la thématique de la pollution plastique depuis longtemps. A quand remontent les premières études sur ce sujet ?

Les premiers travaux sur les plages datent du début des années 80, il s’agissait d’études ponctuelles sur les quantités de plastique. Depuis 92, avec l’Ifremer, nous avons effectué un peu plus de 30 campagnes, sur l’ensemble du littoral français.  Et le plastique représentait déjà 70 à 80% des déchets collectés en mer ! Nous avons ensuite entrepris des travaux de plongées profondes en mer Baltique, du Nord et en Adriatique, puis à l’aide de submersibles.  C’est dans les années 2000 que nous avons publié une synthèse des recherches réalisées sur l’ensemble des côtes européennes. En parallèle, d’autres chercheurs travaillaient sur les objets flottants. Au fil des années, les techniques ont été améliorées et les analyses se sont affinées.

Si dans les années 70, certains scientifiques avaient déjà observé la présence de microplastiques en surface, c’est à partir des années 90 que les associations ont relayé l’information et notamment celle concernant l’accumulation de ces micro-particules dans les zones de convergence ou gyres océaniques. En 2004, à la suite d’un article sur l’évolution des microplastiques, le sujet a été relancé. Ce papier faisait état d’une augmentation conséquente des quantités jusque dans les années 2000.

En 2008, la Commission européenne a décidé de lancer une directive pour la surveillance du milieu marin, afin d’atteindre « un bon état écologique » et par nécessité, elle a inclus les déchets marins et donc les plastiques comme l’un des 11 descripteurs de la qualité de l’environnement. Voilà comment le sujet est entré dans l’actualité. Pour la première fois, il était considéré de manière aussi importante que l’eutrophisation, la biodiversité ou la contamination chimique.

Quelles ont été les découvertes notables à la suite de ces recherches ? 

A cette époque, les premiers travaux de modélisation sont apparus, pour en savoir plus sur le transport des microplastiques. Avant de couler ou de disparaître, les plastiques peuvent être charriés sur des milliers de kilomètres, en surface ou en profondeur. On s’est donc aperçu que des espèces visibles à l’œil nu se fixaient dessus.

L’étude des micro-organismes fixés est quant à elle assez récente, je dirais qu’on les étudie depuis 1 an et demi. A présent, des microbiologistes enquêtent sur toutes les bactéries fixées. Nous savons que certaines espèces appartiennent à des familles qui sont connues pour être pathogènes. Tara considère justement ce sujet. Ces fixations pourraient aussi favoriser la dispersion d’espèces.

Mais les espèces ne se dispersent-elles pas depuis toujours, accrochées à des bouts de bois flottants ou cachées dans les ballasts des bateaux ?

En effet, pendant des millions d’années, le transport d’espèces d’une zone à une autre se faisait sur des bois morts, puis la navigation s’est développée, et les bateaux ont servi de supports aux organismes vivants. Avec l’arrivée des débris flottants, notamment des plastiques, cela a démultiplié le nombre de vecteurs, c’est à dire le nombre de possibilités de transports. Les microplastiques avancent lentement, au gré des courants, et ils vont partout, à la différence des bateaux qui vont d’un port à un autre. Ce qui veut dire que beaucoup plus d’espèces peuvent se fixer dessus et voguer à travers le monde.

Qu’en est-il de la Méditerranée ?

La mer Méditerranée connaît, en moyenne, les densités de plastiques les plus importantes au monde : 250 milliards de microplastiques en Méditerranée.

Comme il s’agit d’une mer fermée, si un nouvel organisme parvient à entrer, il risque de se disperser dans l’ensemble du bassin. Nous avons aussi noté que le transport de certaines espèces comme les foraminifères (espèces unicellulaires) peut être favorisé. Nous commençons donc à avoir des idées précises sur les mécanismes existants, mais il y a encore du travail. Une expédition comme Tara est idéale : elle nous permet de collecter des données à l’échelle de l’ensemble du bassin Méditerranéen, notamment sur les quantités de microplastiques et le cortège des  espèces associées.

 Propos recueillis par Noëlie Pansiot.

Lire la suite

Le bras d’un pré-Néandertalien trouvé au bord de la Seine.

LE MONDE | 09.10.2014 à 16h22 • Mis à jour le 09.10.2014 à 20h38 | Par Nathaniel Herzberg.

Il a déjà un nom : l’homme de Tourville-la-Rivière. Une équipe de scientifiques de l’Institut national d’archéologie préventive et du CNRS a annoncé, jeudi 9 octobre, la découverte des « vestiges d’un pré-Néandertalien » : les trois os longs (humérus, radius, cubitus) du bras gauche d’un individu adulte (ou « vieil adolescent »), de sexe encore indéterminé, vieux de quelque 200 000 ans. Ces ossements ont été mis à  jour dans le cadre d’une campagne en bord de Seine, à 15 km en amont de Rouen, préalable à l’exploitation du site par l’industrie gravière.

La découverte est « majeure », a insisté, jeudi, Jean-Philippe Faivre, chargé de recherche au CNRS et premier signataire de l’article publié le même jour dans la revue américaine PlOS One. « Elle va permettre de faire avancer la compréhension de la dynamique du peuplement des Néandertaliens, de leur apparition, il y a quatre cent cinquante mille ans, à leur disparition, il y a environ trente mille ans », poursuit le paléontologue. C’est en effet la deuxième fois seulement que des restes humains du Pléistocène moyen (781 000-128 000) sont retrouvés en France au nord de la Loire. Jusqu’ici, la dizaine de sites recensés en Europe du Nord-Ouest se concentraient en Allemagne et en Grande-Bretagne.

Le site de Tourville-la-Rivière était déjà connu. Dans ce méandre, deux précédentes campagnes avaient mis en évidence une grande variété d’animaux, carnivores (ours, loups), grands herbivores (aurochs, chevaux, cerfs, chevreuils) et plus petits mammifères (chats, lièvres, castors). Ils y avaient également retrouvé un important site de taille de silex. Et c’était jusqu’ici la grande particularité des lieux. « Les pré-Néandertaliens venaient recueillir les carcasses animales rejetées par la rivière », détaille l’archéozoologue Céline Bemilli. Ils y confectionnaient leurs lames et débitaient la viande – peut-être –, les peaux, les tendons et les os, plus probablement. Ce que les archéologues avaient nommé un « charognage actif ».

DE NOMBREUX MYSTÈRES

Lors de la dernière campagne, en septembre 2010, les scientifiques s’étaient toutefois gardés d’annoncer ce qui constituait en réalité leur perle : ce bras complet, le deuxième jamais retrouvé sur un pré-Néandertalien. Ils souhaitaient en effet l’étudier de plus près, affiner la datation, tenter d’en comprendre le parcours et les particularités. Quatre ans plus tard, ils sont désormais capables de proposer des hypothèses. Mais de sérieux mystères demeurent.

La provenance, d’abord. L’homme de Tourville-la-Rivière n’est pas mort sur place. Comme les cadavres d’animaux, le bras est arrivé par la rivière. Comme eux, les alluvions du fleuve l’ont rapidement recouvert, permettant de le protéger. Etait-il déjà séparé du reste du corps ? « C’est très probable », estime Bruno Maureille, paléoanthropologue à l’université de Bordeaux, qui a étudié les vestiges. Les scientifiques ignorent en revanche si la main avait déjà été détachée. Ils n’ont, en tout cas, retrouvé ni phalanges ni autres petits os, malgré un tamisage systématique de la terre retirée.

Le membre supérieur avait-il été arraché du corps par un animal ? Là encore, l’examen de l’os n’a pas permis de s’en assurer. Les articulations auraient pu aider à le savoir mais elles n’ont pas été récupérées. Les scienfiques soulignent cependant l’absence de traces de morsure sur les os, malgré les nombreuses études d’imagerie réalisées en laboratoire.

ANOMALIE OSSEUSE.

L’examen osseux a toutefois été particulièrement fécond. La datation, réalisée en Australie et en Espagne par deux techniques différentes (uranium 238 et electron spin resonance), a confirmé l’âge du capitaine : environ 200 000 ans. Surtout, l’étude anatomique a permis de retrouver sur l’humérus (bras) comme sur le radius (avant-bras) des caractéristiques propres à la lignée néandertalienne.

Enfin, les techniques d’imagerie et la reconstruction topographique ont mis en évidence, sur la crête de l’humérus, un relief osseux de 4 cm jusqu’ici inconnu. Du moins chez Néandertal. Dans la littérature scientifique, pareille anomalie est courante... parmi les joueurs de baseball. Les paléontologues n’en ont rien conclu sur la nationalité américaine du squelette ou son amour du sport. « Notre hypothèse est que cette anomalie est la conséquence de mouvements répétés d’extension du bras avec éloignement du reste du corps, a indiqué Bruno Maureille. Peut-être un lancer. » « Ou un trouble musculo-squelettique », envisage Jean-Philippe Faivre. D’autant que le bras avait subi au moins un arrachement ligamentaire.

L’équipe entend dorénavant poursuivre l’étude morphologique des trois os, les comparer notamment plus systématiquement aux différents vestiges de pré-Néandertaliens retrouvés en Europe et au Proche-Orient. Elle souhaite également lancer une recherche d’ADN ancien. Depuis dix ans, les techniciens sont parvenus à retrouver du matériel génétique sur des ossements encore plus anciens. Une telle découverte permettrait de situer plus précisément le squelette dans la longue lignée néandertalienne. Et de voir si, par hasard, l’homme de Tourville-la-Rivière ne serait pas une femme.

 Bras neenderthalien

 

Lire la suite

La prédiction des séismes passe-t-elle… par l’eau ?

24 septembre 2014, par Pierre Barthélémy. (Le Monde.fr).

Et si la prédiction des tremblements de terre passait par l'eau ? C'est la question que pose une étude islando-suédoise publiée le 21 septembre par Nature Geoscience. Pour comprendre l'intérêt de ce travail, il faut rappeler que trouver des indices fiables permettant de prédire la survenue prochaine d'un séisme est une des gageures de la géophysique. Ce alors que les enjeux peuvent être considérables quand on songe par exemple au tremblement de terre du 11 mars 2011 au Japon, suivi d'un tsunami qui, avant de provoquer la catastrophe nucléaire de Fukushima, a pris la vie de 20 000 personnes.

Ainsi que le résument les chercheurs américains Steven Ingebritsen et Michael Manga dans le commentaire qu'ils livrent au sujet de cette étude, "toutes les catastrophes naturelles peuvent dans une certaine mesure être prédites à l'exception des grands tremblements de terre. La prédictibilité s'appuie sur des signaux précurseurs reconnaissables et notre capacité à donner l'alerte à l'avance sur le moment où l'événement naturel va se produire et sur sa magnitude a plusieurs fois servi à réduire le nombre de victimes et les dégâts. Par exemple, une grande tempête peut être suivie et son importance prévue ; la surveillance scientifique de nombreux volcans au cours des trente dernières années a conduit à des prédictions le plus souvent correctes sur leurs éruptions. Les séismes majeurs restent en général imprédictibles autrement que dans le sens probabiliste le plus large (...). Même avec une surveillance considérable on ne voit aucun signal précurseur pour la plupart des grands tremblements de terre."

Est-ce pour autant que les séismes ne préviennent pas ? Pour le savoir, les auteurs de l'article publié dans Nature Geoscience ont pris pour terrain d'expérience un site du nord de l'Islande, région volcanique traversée par de nombreuses failles et régulièrement secouée par des tremblements de terre. Chaque semaine à partir d'octobre 2008, ils sont allés prélever des échantillons de l'eau sortant d'un puits artésien profond de 100 mètres. Leur idée consistait à surveiller la composition de l'eau en se disant que, si un séisme était en préparation, de mini-mouvements souterrains, insensibles depuis la surface, pourraient libérer des éléments dans la nappe phréatique. Et ils ont attendu.

Cela a payé. Deux séismes modérés, mais tout de même supérieurs à la magnitude 5, se sont produits à six mois d'intervalle, le 21 octobre 2012 et le 2 avril 2013. L'analyse des données a montré qu'à chaque fois, la teneur en deutérium – un isotope de l'hydrogène – de l'eau avait été perturbée peu avant. Conscients qu'une coïncidence dans le temps n'est pas nécessairement la preuve d'une association, les chercheurs ont calculé la probabilité pour que, sur leurs cinq années d'observations, pareille coïncidence soit l'effet du hasard. Résultat : trois chances sur mille. Déjà encourageante, cette piste de précurseurs décelables dans la composition de l'eau a été renforcée avec la détection de pics dans la teneur en sodium, silicium et magnésium juste avant les séismes.

Les chercheurs émettent l'hypothèse que les tensions souterraines précédant les tremblements de terre font gonfler et craquer le sous-sol. Ce faisant, deux phénomènes sont susceptibles de se produire : primo, des nappes aux teneurs en deutérium différentes peuvent se mélanger et, secundo, des roches "fraîches" sont exposées à l'eau qui y récolte un surplus d'éléments tels que le sodium et consorts. Les auteurs de l'étude restent néanmoins prudents quant à la portée de leur découverte, sachant que les caractéristiques qu'ils ont mises en lumière pourraient être spécifiques à l'Islande, pays dominé par le volcanisme : "Nous ne prétendons pas être capables de prédire les séismes, écrivent-ils. Nous soulignons plutôt que la composition chimique des eaux souterraines est une cible prometteuse pour de futures études sur la prédiction des séismes", dont l'objectif ultime, rappelons-le, est de sauver des vies humaines. On complétera cette conclusion avec celle d'un rapport français de 2009 (accessible en ligne ici)"Aucune méthode n’est à éliminer. Aucune méthode n’est fiable à 100 %. A contrario, l’utilisation de plusieurs méthodes en même temps ne garantit pas la réussite d’une prévision, mais augmente certainement la probabilité de réussite."

Par Pierre Barthélémy, journaliste au Monde. (Passeur de Sciences).

 

Lire la suite

Pourquoi l’enfance des humains est-elle si longue ?

31 août 2014, par Pierre Barthélémy, journaliste au "Monde".

Dans la classe des mammifères, les primates grandissent en général moins vite que les autres animaux. Et chez les primates, Homo sapiens est le roi des lambins, passant un temps considérable dans l'enfance et l'adolescence. Ainsi que le résume une étude américaine parue le 25 août dans les Proceedings of the National Academy of Sciences (PNAS), l'humain grandit à "un rythme qui ressemble plus à celui des reptiles qu'à celui des mammifères". Même si le constat n'est pas neuf, dit cet article, on ignore toujours la cause de cette enfance au ralenti.

Plusieurs hypothèses ont été avancées pour expliquer le phénomène. Parmi ces pistes, on trouve par exemple des raisons biologiques – les mères ne pourraient pas, après le sevrage, fournir les calories nécessaires à leurs enfants si ceux-ci grandissaient vite – ou culturelles – les techniques complexes indispensables à la survie des humains nécessitent de si longs apprentissages que cela a ralenti le développement pré-adulte et en a étendu la durée. Un troisième scénario a la faveur de nombreux biologistes, celui du cerveau coûteux et du compromis énergétique : la structuration de notre énorme cerveau (le plus gros du monde des mammifères si on rapporte sa masse à celle d'un individu) pendant l'enfance nécessite une telle quantité d'énergie que l'organisme serait obligé d'arbitrer, de faire des choix dans la distribution du carburant qu'est le glucose, de privilégier la matière grise au détriment de la croissance corporelle.

C'est cette hypothèse, liée au coût métabolique de notre abondante matière grise, que l'étude des PNAS a testée en essayant de voir si la période de l'enfance où la croissance est la plus ralentie coïncide avec le pic de demande énergétique du cerveau. L'exercice s'avère délicat car il est bien compliqué de mesurer, à tous les âges de la prime jeunesse, les quantités exactes de glucose consommées par chaque organe. Pour ce faire, les chercheurs ont réanalysé un jeu de données obtenues sur quelques dizaines d'enfants et de jeunes adultes des deux sexes soumis à une tomographie par émission de positons (TEP). Cette technique d'imagerie médicale permet, à l'aide d'un marqueur faiblement radioactif inséré dans des molécules de glucose, de visualiser l'activité métabolique d'un organe, et notamment du cerveau.

Ces données montrent que c'est à l'âge de 5 ans que le cerveau de l'enfant engloutit le plus de sucre : 167 grammes par jour pour les garçons et 146 g/j pour les filles. Dans les deux cas cela représente quasiment les deux tiers de ce que consomme le métabolisme de base. Et c'est près de deux fois plus que ce que "brûlera" le cerveau des mêmes personnes une fois qu'elles seront adultes. Cela n'a rien de vraiment étonnant quand on sait que le cerveau connaît à cette époque de la vie une véritable prolifération des connexions entre les neurones : l'enfant apprend à maîtriser son corps, le langage, à établir des liens logiques, à planifier ses actions, etc.

A cinq ans, donc, l'encéphale est un vrai gouffre à glucides. Or, c'est aussi à cinq ans que la croissance de l'enfant est la plus ralentie. Depuis sa naissance, un enfant normal grandit toujours, mais de moins en moins vite. Pour le dire autrement, il gagne de moins en moins de centimètres au fil des années, un mouvement qui va s'inverser après ses 5 ans pour atteindre un maximum lors de la poussée pubertaire. L'étude des PNAS montre d'ailleurs que la consommation de glucides par le cerveau commence à diminuer quand la croissance repart, ce qui conforte l'hypothèse du compromis énergétique : le cerveau a moins besoin de calories car le gros du chantier est fait, on peut donc réattribuer des ressources à la croissance (on dirait un économiste qui parle...).

Si les mesures collent au scénario du cerveau coûteux, il reste des zones d'ombre sur la manière dont s'est instauré ce mécanisme. La caractéristique propre à Homo sapiens qu'est l'enfance au ralenti s'est installée au cours de l'évolution de ses ancêtres, une évolution marquée par plusieurs révolutions énergétiques. Que ce soit la bipédie, mode de locomotion plus économe en énergie par rapport à la marche à quatre pattes, l'apport de viande dans le régime alimentaire, la cuisson des aliments, la chasse en groupe et avec des armes, nombreux sont les facteurs qui ont accompagné – ou favorisé – l'inflation de notre cerveau, sans qu'il soit forcément possible de déterminer le rôle exact de chacun d'entre eux.

Lire la suite

Le cerveau d’Einstein était-il spécial ?

28 mai 2014, par Pierre Barthélémy, le monde.

A part, peut-être, celui de Lénine, aucun cerveau n'a été aussi étudié que celui d'Albert Einstein, parangon moderne du génie humain. Et ce contre sa volonté ! Le Prix Nobel de physique 1921 avait en effet demandé que son corps soit incinéré et ses cendres dispersées en un lieu tenu secret pour ne pas devenir un objet de culte. Mais Thomas Harvey, le médecin qui, en 1955, pratiqua l'autopsie du savant, décida de passer outre – Einstein pouvant difficilement se plaindre à ce moment-là – et de prélever l'encéphale du chercheur le plus emblématique du XXe siècle.

Trente ans durant, on n'en entendit plus vraiment parler, jusqu'à ce que, en 1985, Harvey et trois collègues publient, dans Experimental Neurology, une étude affirmant qu'à un endroit particulier du fameux cerveau, la proportion entre les neurones et les cellules gliales qui les environnent, les protègent et les alimentent était bien différente de celle que l'on retrouve dans un cerveau "normal". Pour résumer, cet article fut le premier d'une longue série tendant à prouver que si Einstein était génial, il le devait à un cerveau spécial. Mais était-ce vraiment le cas ?

C'est la question que pose le neurologue américain Terence Hines dans une contre-étude assez impitoyable et à la limite du caustique parue dans le numéro de juillet de Brain and Cognition. Il a passé au peigne fin les travaux publiés par le passé sur le cerveau d'Einstein et les trouve tous... insuffisants, soit dans leur méthodologie, soit dans leur traitement statistique, soit dans l'interprétation des résultats. Ainsi, pour l'étude de 1985, il souligne que sept critères (nombre de neurones, nombre de cellules gliales, etc) étaient examinés pour quatre régions différentes du cerveau. Sur ces 28 tests, seul un a donné un résultat significativement différent de la "normale". Sur le plan statistique, ce n'est absolument pas une surprise et il est fort probable que n'importe quel encéphale obtiendrait, sur un si grand nombre de critères, un résultat analogue ! D'une certaine manière, l'article de 1985 est tombé dans un biais de publication en ne mettant pas l'accent sur les 27 résultats conformes à la norme.

De plus, toujours au sujet de la même étude, Terence Hines souligne que l'âge moyen des personnes ayant fourni les cerveaux "normaux" était nettement inférieur à celui d'Einstein au moment de sa mort et que les détails manquent sur l'état neurologique de cet échantillon de contrôle... Le chercheur souligne par ailleurs que si Thomas Harvey s'était longtemps abstenu de publier quoi que ce soit sur le cerveau du grand physicien, c'est parce que, de son propre aveu, ses travaux n'avaient "montré aucune différence importante avec des sujets normaux". Autre biais de publication.

Terence Hines n'est pas plus tendre avec les études publiées sur la morphologie du cerveau einsteinien, qui furent réalisées uniquement à partir... des photos prises par Harvey. Ce dernier ayant par la suite découpé le fameux encéphale en petits cubes, il n'était en effet plus possible d'analyser les circonvolutions et les sillons délimitant les grandes zones du cortex. Ces conditions particulières introduisent un autre biais : tous les chercheurs ayant travaillé sur ces images savaient de quel cerveau il s'agissait et ne l'analysaient donc pas en aveugle, comme il est préférable de le faire. Il leur était donc "aisé" de distinguer des particularités au niveau de tel ou tel lobe et de les mettre en relation avec tel ou tel élément biographique d'Einstein : son intelligence se lit ici, sa pratique du violon a développé ça, son don pour les mathématiques se traduit là, son célèbre retard de langage, enfant, se voit ici, etc.

Pour Terence Hines, il s'agit de corrélations construites a posteriori qui en disent plus sur les personnes qui analysent que sur l'objet analysé. Il imagine ainsi que l'on prenne un cerveau "normal" pour le comparer à cent autres. Etant donné les variations individuelles aléatoires des circonvolutions, on trouverait obligatoirement des différences avec la moyenne du groupe témoin. Mais comment les interpréterait-on ? "Si on croyait au préalable que le cerveau testé était celui d'un individu doté de capacités cognitives spéciales (...), il serait facile de voir des corrélations entre la morphologie du cerveau et ces capacités, même si aucune d'entre elles n'avait réellement existé", écrit Hines. Ce dernier conclut qu'aucune des nombreuses études réalisées sur le cerveau d'Einstein ne prouve que ce dernier ait eu quoi que ce soit de spécial, ce qui conduit le chercheur à inventer le terme de "neuromythologie" pour décrire ce désir de trouver des bases physiologiques au génie d'une icône scientifique. Comme si le père de la relativité devait n'être rien d'autre que la somme de ses neurones et non pas un homme de culture...

Enfin, Terence Hines souligne que s'il est pertinent de chercher des différences entre les cerveaux de deux groupes (par exemple, des bilingues avec des monolingues), l'exercice s'avère bien plus délicat sur le plan statistique lorsque l'on veut comparer la matière grise d'un individu donné avec celle d'un groupe contrôle. Finalement, le problème avec le cerveau d'Einstein, c'est qu'il n'y en a qu'un.

 

Pierre Barthélémy.

 

 

 

Lire la suite

×