Une forme de vie extraterrestre sera découverte avant 2034

Cette étonnante affirmation a été formulée par des scientifiques de l’Institut de recherche d’intelligence extraterrestre (SETI), le 21 mai devant le Congrès américain. C’est certainement pour continuer d’avoir des fonds qu’ils ont sorti cette phrase choc. Mais leurs arguments en faveur d’une telle découverte sont tout de même convaincants.

Ils utilisent actuellement 3 méthodes différentes pour trouver une forme de vie extraterrestre. Tout d’abord, ils envoient des missions robotiques à la recherche de vestiges microbiens comme Curiosity sur Mars. Pour eux, il y a dans le système solaire au moins 6 autres lieux potentiellement habitables comme les lunes de Jupiter Europe et Ganymède qui renfermeraient des océans sous leur couche de glace, ou Titan qui a d’immenses lacs de méthane liquide.

L’autre méthode consiste à observer les atmosphères des planètes en orbite autour d’autres étoiles. Ils sont aujourd’hui capables de détecter celles qui ont des atmosphères épaisses composés d’oxygène ou de méthane (ces 2 gaz aident à produire des processus biologiques)

Pour ces scientifiques, ces 2 méthodes devraient nous permettre de trouver des traces de vie extraterrestre dans les 20 ans qui viennent.

La 3e méthode consiste à trouver de la vie intelligente ! C’est ce que fait le SETI avec le programme SETI@home qui consiste à utiliser les plus grands télescopes du monde pour écouter l’univers et chercher au milieu du vacarme cosmique un signal extraterrestre. La puissance de calcul de millions d’ordinateurs est mise à contribution pour trier ces informations.

Les calculs montrent qu’il faudrait examiner quelques millions de systèmes stellaires pour avoir une chance de succès. Depuis que le programme existe (1999), le SETI a examiné moins d’1% de ces systèmes solaires. Mais en suivant la courbe des avancées technologiques, ils auront observé les 99% restants d’ici 20 ans.

Parmi les autres arguments avancés, les données du télescope Kepler ont montré que les planètes étaient abondantes dans notre galaxie. Il y a en moyenne 1,6 planète en orbite autour de chacune des 234 milliards d’étoiles de notre système et une planète sur 5 a une chance d’être une jumelle de la Terre.

La vie est apparue sur Terre après seulement 1 milliard d’années. Il est donc possible que, même sur de jeunes planètes, la vie soit  actuellement en train de se développer. La vie complexe a mis bien sûr beaucoup plus de temps à émerger, sans parler de vie intelligente. Pendant longtemps, la Terre était recouverte de vie, mais il fallait un microscope pour la découvrir.

Cependant, de la même manière que la vie intelligente sur Terre n’est pas que l’apanage des humains, on peut imaginer que les pressions sélectives que nous pouvons retrouver sur d’autres planètes ont pu guider l’évolution vers des caractéristiques très différentes. Ainsi sur une planète, il faudrait être rapide pour survivre, et sur une autre il faudrait être fort. On peut alors penser que sur certaines planètes de l’univers, la survie dépendrait de l’intelligence.

Les scientifiques du SETI ont avancés d’autres arguments que vous pouvez retrouver ici, mais leur affirmation laisse perplexe. Allons-nous vraiment découvrir des extraterrestres d’ici 20 ans ? Ce serait génial mais il n’y a qu’un moyen de répondre à cette question et pour cela… je vous donne rendez-vous en mai 2034.

gizmodo.fr · by Norédine Benazdia · May 27, 2014
Publicités

Encadrons les neuro-révolutionnaires

LE MONDE SCIENCE ET TECHNO | 05.05.2014 à 17h34 • Mis à jour le 05.05.2014 à 18h42 |Par Laurent Alexandre

En mars, Ray Kurzweil, directeur du développement et ingénieur en chef de Google, a déclaré que nous utiliserions des nanorobots intracérébraux branchés sur nos neurones pour nous connecter à Internet vers 2035. Google, qui est déjà le leader mondial des neurotechnologies, entend franchir une nouvelle étape dans la maîtrise des cerveaux. D’abord, Google nous a orientés dans le Web et le monde réel grâce à son moteur de recherche, à Google Maps, aux Google cars et à Nest. Ensuite, il a commencé à stocker une partie de notre mémoire (Gmail, Picasa). Désormais, il augmente nos capacités sensorielles (Google Glass,Google lens…).

La quatrième étape commencera avec l’émergence d’une authentique intelligence artificielle dotée d’une conscience qui devrait écraser l’intelligence humaine dès 2045, selon Kurzweil. A cette date, l’intelligence artificielle sera, selon le dirigeant de Google, un milliard de fois plus puissante que la réunion de tous les cerveaux humains. La dernière phase aujourd’hui révélée par les dirigeants de Google sera l’interfaçage de l’intelligence artificielle avec nos cerveaux.

GOOGLE, UNE NEUROPROTHÈSE

En quelques décennies, Google aura transformé l’humanité : d’un moteur de recherche, il sera devenu une neuroprothèse. « Dans environ quinze ans, Google fournira des réponses à vos questions avant même que vous ne les posiez. Google vous connaîtra mieux que votre compagne ou compagnon, mieux quevous-même probablement », a fièrement déclaré Ray Kurzweil, lequel est également persuadé que l’on pourra transférer notre mémoire et notre conscience dans des microprocesseurs dès 2045, ce qui permettrait à notre esprit de survivreà notre mort biologique. L’informatique et la neurologie ne feront qu’un !

Ces neurotechnologies sont littéralement révolutionnaires en ce qu’elles bousculent l’ordre social. Pouvons-nous y échapper ? Une contre-neuro-révolution sera-t-elle possible ? Probablement pas. A terme, si Google réussit son pari, un être humain qui refuserait d’être hybridé avec des circuits électroniques ne serait guère compétitif sur le marché du travail. Imagine-t-on une société à deux vitesses, avec des humains non augmentés qui deviendront inévitablement des parias ? En outre, serait-il éthique de ne pas augmenter les capacités cognitives des gens peu doués ?

Bill Gates lui-même est affolé par l’absence de réflexion politique sur les conséquences de la fusion de l’intelligence artificielle et de la robotique. Il estime que les automates remplaceront d’ici à 2035 la majeure partie des métiers, y compris les professions de santé. La montée en puissance des neurotechnologies inquiète au sein même de Google, qui vient de créer un comité d’éthique consacré à l’intelligence artificielle. Il devra réfléchir à des interrogations qui concernent l’humanité tout entière : faut-il mettre des limites à l’intelligence artificielle ? Comment la maîtriser ? Doit-on l’interfacer à nos cerveaux biologiques ?

Dans une tribune publiée le 1er mai dans The Independent, le physicien Stephen Hawking, le Nobel de physique Frank Wilczek, l’informaticien Stuart Russell et le physicien Max Tegmark estiment que « la réussite dans la création de l’intelligence artificielle serait le plus grand événement dans l’histoire humaine ».« Malheureusement, ajoutent-ils, ce pourrait aussi être le dernier, sauf si nous apprenons comment éviter les risques » engendrés par cette création. Ils regrettent que la recherche sur ces questions soit cantonnée à quelques institutions à but non lucratif.

Le fondateur de Deep Mind, récemment racheté par Google, qui est un leader de l’intelligence artificielle, affirme lui aussi que cette dernière peut menacer l’humanité dès le XXIe siècle. A l’ère des prothèses cérébrales, le risque de neuro-manipulation, de neuro-hacking et donc de neuro-dictature est immense. Nous devons encadrer le pouvoir des neuro-révolutionnaires : la maîtrise de notre cerveau va devenir le premier des droits de l’homme.

  • Laurent Alexandre 

La vie + 2 lettres

Agence Science-Presse, le 12 mai 2014, 20h28

(Agence Science-Presse) Ajouter deux lettres à l’alphabet génétique qui ne comptait —depuis des milliards d’années— que quatre lettres, c’est un exploit. Mais l’étape suivante est plus compliquée qu’il n’y paraît: intégrer ces deux lettres au mécanisme par lequel une cellule fabrique des copies d’elle-même, plutôt que de n’avoir qu’une paire cachée parmi des millions.

Titre: DNA helix against the colored background

Cliquer sur la photo pour agrandir

• A (adénine), T (thymine), C (cytosine), et G (guanine): avec ces quatre «lettres» qui sont des molécules appelées nucléotides, on a tout ce qu’il faut pour construire le génome de tout être vivant. Agencées deux par deux (les paires de base) dans des combinaisons différentes, elles forment ce qu’on a appelé il y a 12 ans le «livre de la vie», à l’époque où on achevait le séquençage du génome humain.

• La recherche: Denis A. Malyshev et al., «A semi-synthetic organism with an expanded genetic alphabet», Nature, 7 mai 2014.

La percée, qui a été annoncée dans la dernière édition de la revue Nature, ne consiste pas en la création d’une nouvelle forme de vie. Et avant que l’on sache à quoi ces deux lettres serviront, si elles doivent servir à quelque chose, il y a une marge.

Mais la percée fait rêver en même temps qu’elle inquiète.

Explication. Toute vie sur Terre, depuis les premières bactéries jusqu’à nous, a toujours été constituée de quatre «lettres» ou nucléotides: A, C, T et G. C’est l’association de ces lettres par paires —les paires de bases— qui finit par former un gène. L’être humain compte ainsi trois millions de paires de bases qui, mises bout à bout, forment 24 000 gènes.

Or, ce qu’a annoncé dans Nature l’équipe dirigée par Floyd Romesberg, du département de chimie de l’Institut de recherche Scripps, en Californie, c’est l’ajout, dans une bactérie E. coli, de deux lettres supplémentaires, baptisées pour l’instant X et Y. Un duo de lettres qui s’est transmis aux générations suivantes, chaque fois que la bactérie se divisait.

À quoi ça pourrait servir?

En théorie, plus de lettres signifie plus de variétés dans ce que peuvent produire nos gènes: autrement dit, si nos gènes peuvent actuellement produire 20 acides aminés avec quatre lettres, pourraient-ils en produire plus de 170 —c’est l’estimation qui circule— avec six lettres?

Romesberg semble en tout cas y croire, lui qui a lancé une compagnie, Synthorx, destinée à explorer l’éventuelle commercialisation de ces «nouvelles» protéines —à des fins médicales sûrement, ou industrielles, qui sait.

Quelles inquiétudes?

Mais l’inquiétude n’est jamais loin en pareil cas. Et si cette bactérie s’échappait dans la nature?

On en est loin. La paire de bases «non naturelle» en question n’était qu’une parmi les 4,6 millions que comptait cette bactérie E. coli. Elle s’est transmise d’une génération à l’autre certes, avec l’aide d’une protéine «étrangère» qui produisait les X et Y en question, mais il a suffi d’une semaine pour que les réserves de cette protéine soient épuisées et que la bactérie revienne à la «normale». En d’autres termes, c’est comme si on avait fait subir à cette bactérie une transplantation, qu’elle y avait survécu, et qu’elle avait rejeté la transplantation une fois celle-ci devenue inutile.

Faire de tout cela une partie intégrante de la bactérie, c’est-à-dire rendre cette bactérie capable de «transcrire» ces deux lettres de la même façon qu’elle transcrit les bon vieux A, C, T et G, c’est une autre paire de manches.

Steven Benner, celui qui avait parti le bal dès les années 1980 en créant en éprouvette des «formes modifiées» des molécules C et G, s’est montré sceptique quant aux suites immédiates. Parce que ces nucléotides X et Y ne sortent pas du néant: il a fallu un effort considérable pour produire les molécules qui, en s’assemblant, ont finalement abouti à ces X et Y.

L’étude parue dans Nature est très peu explicite là-dessus, mais on devine que la facture doit être salée: il a fallu 15 ans au laboratoire de Floyd Romesberg pour développer un génome contenant ces deux lettres supplémentaires. En 2012, ils étaient parvenus pour la première fois à faire en sorte que leur ADN à six lettres soit copié en éprouvette; il restait à voir ce qui se passerait dans une vraie cellule vivante. Et avec une seule paire de base, ils ne sont pas au bout du chemin.

Mais s’ils y arrivaient? Cette percée serait alors considérée un jour comme le premier pas vers la création de formes de vie «artificielles» —on appelle ça la biologie synthétique— et du coup, elle offre dès aujourd’hui une assise à ceux qui tentent de rédiger les premières règlementations sur ce champ de recherche qui pointe à l’horizon.

Le coût horaire de la main-d’oeuvre varie de 1 à 10 en Europe

Le coût horaire de la main-d’oeuvre dans l’Union européenne a varié de un à plus de dix en 2013, allant de 3,7 euros en Bulgarie à 40,1 en Suède. Neuf pays membres de l’UE, tous issus de l’ex-bloc de l’est, étaient sous la barre des 10 euros.

Au sein de l\'UE, le coût horaire de la main-d\'oeuvre a varié de un à dix l\'an passé (photo : un ouvrier de Siemens AG) - REUTERS/Tobias Schwarz
Au sein de l’UE, le coût horaire de la main-d’oeuvre a varié de un à dix l’an passé (photo : un ouvrier de Siemens AG) – REUTERS/Tobias Schwarz
Dans une l’Europe qui peine à lutter contre le dumping social, Eurostat vient de jeter un pavé dans la mare. En effet, l’office statistique de l’Union européenne (UE) a publié jeudi un document qui montre que le coût horaire de la main-d’oeuvre a varié de un à dix l’an passé en Europe , allant de 3,7 euros en Bulgarie à 40,1 en Suède.
En moyenne, cet indicateur s’est établi à 23,7 euros pour l’UE et à 28,4 pour la zone euro (*), en progression dans les deux cas de quelque 10% par rapport à 2008, l’année de référence. Mais neuf pays, tous issus de l’ex-bloc de l’est, étaient en dessous de la barre des 10 euros (voir le tableau ci-dessous). Les mains-d’oeuvre bulgare et roumaine ont été les plus mal loties respectivement à 3,7 et 4,6 euros, en dépit d’augmentation de 44% et 32,8% depuis 2008.
Sans surprise au vu de la cure d’austérité qu’elle subit, la Grèce s’est rapprochée de ce bloc. Avec un coût horaire tombé à 13,6 euros, la Grèce enregistre au passage un record négatif avec une chute de 18,9% par rapport à 2008.
A l’opposé, le coût horaire de la main-d’oeuvre caracolait à 40,1 euros en Suède, devant le Danemark (38,4 euros), la Belgique (38 euros), le Luxembourg (35,7 euros) et la France (34,3 euros).
Le coût horaire de la main-d\'oeuvre varie de 1 à 10 en Europe

Encadrer le détachement de travailleurs européens

Les coûts de la main-d’oeuvre comprennent les salaires auxquels s’ajoutent les coûts non salariaux, tels que les cotisations sociales. La part de ces coûts non salariaux s’est établie à 23,7% dans l’UE et à 25,9% dans la zone euro, variant de 8% à Malte à 33,3 en Suède. En France, ils ont compté l’an dernier pour un tiers du total, contre un cinquième en Allemagne et 15% au Royaume-Uni.
Pour lutter contre les abus qui découlent de ces écarts salariaux, les institutions européennes ont conclu début mars un accord de principe visant à encadrer le détachement de travailleurs européens (voir sur ce sujet l’article du site Euractiv) . Longuement négocié, ce compromis a toutefois été jugé « très décevant » par la Confédération européenne des syndicats (CES) pour laquelle le texte est « loin d’arrêter le dumping social actuel« .
Jean-Michel Gradt, Les Echos

(*) Ces estimations préliminaires pour 2013, publiées par Eurostat, ,couvrent les entreprises de 10 salariés et plus et sont basées sur l’enquête 2008 sur le coût de la main d’œuvre ainsi que sur l’indice du coût de la main d’ œuvre

Le « pope » management : les leçons de leadership du pape François

Par  – Publié le 18 avril 2014, à 10h05

Le nouveau pape : Jorge Bergoglio
© D.R. – Aibdescalzo – C.C.

    À la veille des fêtes de Pâques, le magazine anglo-saxon The Economist rend hommage aux talents de managers du pape François. Des leçons de leadership à méditer par tout chef d’entreprise.

Pour The Economist, le pape François a réussi à réactualiser la plus vieille multinationale de l’histoire : l’église catholique romaine. La « RC Global », comme la nomme, le magazine s’est choisie un chef qui n’a rien à envier à Lou Gerstner qui transforma IBM ou à Steve Jobs. « La Harvard Business School doit ajouter un nouveau cas d’entreprises à sa banque de données », assure l’article qui pointe trois facteurs clés de succès :

1. Le recentrage stratégique. Le pape François a redéfini la mission de l’Église de manière claire et précise : « aider les pauvres ».

2. Le repositionnement du discours de marque. L’Église a conservé ses positions sur l’avortement ou le mariage mais elle a affirmé ses positions de manière plus « soft », avec plus d’humilité ; « qui suis-je pour juger », répond sans se lasser le pape François à ceux qui tente de le piéger sur ces questions. Ce discours moins culpabilisant rejaillit ainsi sur l’image de marque de l’Église.

3. La restructuration de l’organisation. Le pape, qui a engagé une réforme de fonds de la curie (une sorte d’assemblée législative de l’Église), a aussi cherché à se libérer d’institutions sclérosées. En mettant en place un ministère de l’économie, en introduisant des cabinets de conseil extérieurs et surtout en créant le C8 (un conseil de 8 cardinaux que le Pape réunit toutes les semaines), il s’est doté d’outil pour penser « out of the box ».

Management intermédiaire déboussolé

Pour être complet, il faudrait ajouter deux autres facteurs clés de succès à ceux révélés par The Economist :

-l’exemplarité : le Pape François demande à l’Église de se rapprocher des pauvres mais s’y astreint lui-même en réalisant des actes symboliques forts. Le choix du nom François en était un, celui de l’abandon de la « papamobile » siglée Mercedes aussi, le fait d’intégrer la maison Sainte Marthe, plus modeste que les appartements pontificaux également tout comme son choix d’abandonner le luxueux décorum.

-l’autre facteur clé, c’est son talent pour le « faire savoir ». François -@pontifex sur Twitter– use de tous moyens pour faire connaître son travail et rallier ses salariés (pardon !), ses fidèles à sa cause. Cela fonctionne plutôt (près de 90% des catholiques l’apprécient).

Cette transformation rapide de la forme n’est toutefois pas sans poser problème à une partie de son management intermédiaire. Certains prêtres -puisque c’est d’eux que l’on parle- sont déboussolés par la nouvelle inflexion stratégique. Une perturbation assumée par le pape dans l’entretien qu’il a accordé aux revues jésuites : « cherchons à être une Église qui trouve de nouvelles routes, qui est capable de sortir d’elle-même et d’aller vers celui qui ne la fréquente pas. » Autrement dit, il leur propose de retourner sur le terrain pour écouter mieux leur « marché » et innover dans la manière de proposer la foi catholique. The Economist a raison : la transformation de la plus vieille multinationale de l’histoire est bien en cours.

Thibaut De Jaegher

« Si t’as pas ton MOOC (*), t’es un bolos (*) ! »

Mots-clefs

LE CERCLE. Les « MOOC » sont à la mode, toutes les universités et les écoles s’y mettent : « Si t’as pas ton MOOC, t’es un bolos… » Que restera-t-il des universités et des grandes écoles quand tous les savoirs seront disponibles en libre accès sur la toile ? Comment témoigner du fait que l’on vient de quelque part, si la possibilité d’être partout est offerte ?

Toutes les universités américaines, les plus prestigieuses, Stanford (*), MIT, Harvard… se sont mises aux MOOC. Entendez « Massive Open Online Course » ou bien l’occasion de diffuser au monde la sainte parole scientifique via les outils numériques. Les MOOC sont à Stanford ce que la bénédiction urbi et orbi est au Vatican : l’occasion de distribuer la sainte parole chez soi et au monde.

Internet permet de toucher le plus grand nombre, de diffuser le savoir et d’asseoir ainsi la notoriété internationale des établissements. On répertorie deux types de MOOC, l’un est dogmatique, proche du cours en amphi, l’autre est collaboratif, permettant de fédérer les apprenants autour de plateformes où chacun, professeurs, apprenants et tiers s’enrichissent autour de thématiques communes.

Internet, l’hyper-interactivité ou bien l’occasion d’interagir avec le savoir, ou celui qui le représente, la mondialisation, et enfin la puissance en terme d’image et de notoriété de certains opérateurs vont effectivement rebattre les cartes. Tous les cours des plus grandes universités, tous les savoirs, ceux des plus grands savants, des plus grands professeurs, vont être en ligne, disponibles au monde entier, et peut-être disponibles à des prix dérisoires. Un nouvel impérialisme du savoir est peut-être en train de se mettre en place en même temps qu’un nouvel ordre économique.

Les meilleures universités, les plus riches peut-être, font faire les meilleurs MOOC dispensés par les meilleurs professeurs et ainsi concentrer les savoirs et leur diffusion. En terme économique, la période est propice, au moment où les universités américaines doivent revoir leur modèle. La bulle financière constituée par l’endettement des étudiants outre-Atlantique devient problématique.

Les Américains les plus modestes n’ont plus accès à l’enseignement supérieur, les classes moyennes mettent 25 ans à rembourser les frais de scolarité. L’université est devenue inaccessible et sa vocation à assurer sa mission de diffusion des savoirs devient trop sélective. Son financement repose sur la dette contractée par les étudiants. Quid si d’aventure le marché du travail ne permettait pas de les embaucher tous. Trop chère, l’université outre-Atlantique n’a le choix que de conquérir de nouveaux marchés, plus globaux.

Les écoles françaises se mettent bon an, mal an, au « MOOC.fr ». On sent le bon filon. On trouve même des MOOC pour faire des MOOC. Ils fleurissent sur la toile, difficile encore d’y voir des stratégies claires de la part des établissements sinon celles de suivre le mouvement, la tendance et ainsi éviter l’écueil d’être considérées comme une structure du passé. Les discours sont encore confus sur l’intérêt des cours en ligne et les stratégies suivies.

On se souvient des expériences menées en France, il y a près de 20 ans, avec les vidéos qui devaient suppléer voire remplacer les professeurs. Elles n’ont servi qu’à accompagner les cours, sans substituer le maître, pour finalement être plus ou moins abandonnées au profit du livre. Le même livre que l’on retrouve aujourd’hui sur les tablettes. Le maître n’a pas disparu, le livre non plus, les vidéos si !

On aimerait un directeur d’école affirmant la création d’une « école sans mur » où les étudiants ne viennent plus en cours, mais suivent les programmes depuis le lieu géographique où ils se trouvent, une vraie rupture pour un vrai projet. Mais alors, comment justifier là où l’on est, là d’où on vient ?

Ce modèle existe : l’université turque Anadolu d’Eskisehir – ville de 40 000 habitants – revendique tous les ans 1 million d’étudiants en business répartis sur toute la planète. C’est peut-être la plus grande université du monde. Une université sans mur, tel est le modèle, les étudiants ne se côtoient pas, mais faut-il le faire quand il s’agit d’acquérir des savoirs académiques.

La science est universelle, l’enseignement de la gestion l’est devenu, et les efforts faits par les « business schools » à modéliser le marketing ou le management, font qu’ils s’enseignent en MOOC comme les autres disciplines scientifiques. La substitution de l’expérimentation par l’académisme, la fin du travail en ateliers et petits groupes rendent les écoles perméables à l’enseignement via les plateformes multimédias pour une grande partie de leurs enseignements.

On voit bien l’intérêt immédiat, diffuser au plus grand nombre serait l’occasion d’avoir des amphis virtuels de 1 000, 10 000, voire 100 000 étudiants… et l’occasion d’avoir une vitrine internationale sous réserve d’une langue vernaculaire d’enseignement compréhensible par le plus grand nombre. En France, faire des MOOC dans la langue de Molière, c’est obérer immédiatement la portée universelle des messages, sauf à en faire un argument politique, culturel et identitaire.

Mais les sciences universelles ne sont pas le meilleur viatique à une diffusion culturelle. Il existe certes une école française de la mathématique, néanmoins la mathématique est universelle. S’il s’agit de mutualiser les travaux des scientifiques du monde entier, mieux vaut qu’ils parlent le même langage, l’Anglais.

Les MOOC, c’est rendre les meilleurs cours accessibles à tous, alors quand tout est possible et qu’on peut le plus, pourquoi aller vers le moindre. À quoi bon, suivre un MOOC sur le « Design Thinking » sinon sur la plateforme de la Design School de Stanford puisque Tim Brown (Change by design*…), CEO de IDEO qui en a assuré la promotion, sera à portée de clics. Il est évident que s’il devient possible économiquement de suivre les cours de Harvard, pourquoi suivre les cours de HEC. La concurrence entre les écoles va être exacerbée, d’autant plus vaine que les cours de comptabilité seront identiques, dispensés par des professeurs nourris aux mêmes universités.

La compétition promet d’être féroce pour aller conquérir des parts de marchés d’étudiants, mobiles et « multiconnectés », sauf à les fidéliser par la qualité de l’image du diplôme délivré par les meilleures marques. Aujourd’hui, la capacité des MOOC à fidéliser est dérisoire. On constate un taux d’abandon important. Mais la quête devenue possible du diplôme le plus prestigieux va vraisemblablement infléchir la courbe des abandons en cours de formation.

Le risque est dans la concentration des savoirs vers les plus prestigieux, ceux qui accueillent les meilleurs professeurs, et auront les plus grandes puissances de communication. Les autres devront se spécialiser et renforcer des positionnements pertinents forts et différenciateurs.

Alors la question est posée, que restera-t-il des universités et des écoles qui assurent des enseignements généralistes ? Plutôt que de faire des MOOC, peut-être, il serait souhaitable qu’ils inventent l’école de demain, celle où l’expérience est au cœur de tout apprentissage, celle où l’étudiant devient le maître par le pouvoir qui lui est donné de concevoir et de créer, l’école qui oblige à se réunir, à partager, à travailler autant de la tête que de la main, en petits groupes, en atelier… et où la créativité nous permet d’envisager un monde différent plus responsable, plus vertueux, où la technologie est au service de l’humain, où l’économie à celui du progrès et pas du financier.

« Directeur de L’École de design, je n’ai aucune chance de faire un meilleur MOOC que Stanford et Tim Brown sur le design thinking, en revanche, ce sont dans les ateliers de mon école que les étudiants, animés par nos designers et encadrants, préparent le monde de demain. Les entreprises, celles du XXIe siècle, celles qui feront sens, seront créées dans nos « garages », par des étudiants connectés au monde entier ».

* MOOC : http://fr.wikipedia.org/wiki/Cours_en_ligne_ouvert_et_massif
* « Bolos » : mot utilisé par les jeunes : gros nul, ringard, bouffon… Serait le verlan de « lobotomisé »…
* MOOC de Stanford : http://www.mooc-list.com/university-entity/stanford-university
* « Change by design : How Design Thinking transforms Organisations and inspires Innovation » – Tim Brown

«Her»: que feront les hommes quand leur intelligence sera dépassée ?

Mots-clefs

Joaquin Phoenix dans Her de Spike Jonze © Wild Bunch Distribution

Le dernier film de Spike Jonze, «Her», n’est pas qu’une merveilleuse romance liant un homme et une intelligence artificielle : c’est aussi une enquête sur l’inquiétante «singularité technologique».

 

Avec Her, le réalisateur Spike Jonze a signé un très beau film : dans un futur assez proche, où les humains nous ressemblent à ceci près qu’ils ne portent plus de jeans, mais d’étranges pantalons en laine, un célibataire sentimental, Theodore (Joaquin Phoenix), tombe éperdument amoureux de « Samantha », un programme informatique qui parle (avec la voix de Scarlett Johansson). Cette histoire est l’occasion de méditer sur les relations qui se tisseront entre les êtres humains et les intelligences artificielles quand celles-ci auront atteint un niveau tel qu’elles pourront exprimer des émotions et avoir des conversations qui sembleront naturelles.

La relation entre Theodore et Samantha évolue : dans un premier temps, Samantha se désole de ne pas avoir de corps, elle se sent privée de contacts physiques avec le monde et, par là, du plaisir. Et puis, tout bascule : « Vous savez, dit-elle lors d’une conversation avec un groupe d’humains, j’ai longtemps regretté de ne pas avoir de corps, mais maintenant j’aime ça… Je ne suis pas liée au temps et à l’espace, comme je le serais si j’étais emprisonnée dans un pauvre corps mortel. » La remarque jette un froid. À ce stade du film, on vient d’atteindre ce que les intellectuels qui travaillent sur l’intelligence artificielle appellent la« singularité technologique », c’est-à-dire le moment où les humains ont construit des machines plus intelligentes et moins limitées qu’eux. Dans un article programmatique de 1965, le scientifique britannique Irving John Good écrivait déjà : « Mettons qu’une machine supra-intelligente soit capable dans tous les domaines d’activités intellectuelles de grandement surpasser un humain, aussi brillant soit-il. Comme la conception de telles machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans conteste une “explosion d’intelligence” et l’intelligence humaine serait vite dépassée. »Mais c’est l’auteur de science-fiction Vernor Steffen Vinge qui, dans un colloque organisé par la Nasa en 1993, a vraiment posé le concept de « singularité technologique », terme employé par analogie avec les trous noirs qui sont des « singularités gravitationnelles », à proximité desquels les lois de la physique s’abolissent : « D’ici à trente ans, nous aurons les moyens de créer une intelligence surhumaine… D’un point de vue humain, cette nouveauté changera toutes les règles, peut-être en un clin d’œil, et la progression exponentielle qui s’ensuivra sera complètement incontrôlable. » Simple rêverie ? Ce n’est guère l’avis de Ray Kurzweil, théoricien employé par Google, qui dans son essai Humanité 2.0 (2005 ; trad. fr. M21, 2007) estimait, lui, que le cap devrait être atteint en 2045. À l’en croire, l’Histoire serait dès lors vouée à devenir posthumaine, car ces mêmes machines seront mieux à même que nous d’organiser la société, l’économie et les institutions politiques ; le progrès accélérera, piloté par les ordinateurs.

Mais le coup de génie de Spike Jonze est d’avoir fait un pronostic inédit sur l’ère « postsingularité ». En effet, pour Good, Vinge ou Kurzweil, il ne fait aucun doute que le sort de l’humanité va être mis entre les mains de machines supra-intelligentes, qui nous administreront. Or, Jonze prévoit autre chose : dans son film, on s’aperçoit que les êtres supra-intelligents, une fois créés, vont simplement… se désintéresser des humains et les abandonner à leur petitesse. Ainsi, ce n’est pas la soumission qui guette Theodore, mais l’abandon – par lequel il renoue avec une tristesse bien trop humaine.

Par ALEXANDRE LACROIX

Directeur de la rédaction

Quel est le plus grand nombre possible utile ?

Science étonnante

3676227162_1b14e6f699_zLes grands nombres nous fascinent, et ce depuis le plus jeune âge. Qui, enfant, n’a pas joué au jeu de celui qui dira le nombre le plus grand ? Grâce à l’imagination des mathématiciens, il est assez facile d’écrire des nombres absolument gigantesques, mais cela sert-il vraiment à quelque chose ? Y a-t-il des situations où l’on ait besoin de nombres vraiment gigantesques ?

Nous allons voir que dans la Nature, pas tant que ça. Mais dans les démonstrations mathématiques, oui ! Partons donc à la chasse au plus grand nombre utile à ce jour.

View original post 1 704 mots de plus

Les extraterrestres sont parmi nous ! (…c’est l’hypothèse la plus probable)

Science étonnante

roswellUne fois n’est pas coutume, aujourd’hui j’ai décidé de m’amuser un peu et de sortir de la rigueur et de l’objectivité qui caractérisent habituellement – je l’espère – les textes de ce blog.

Dans ce billet, je vais défendre l’idée que les extraterrestres sont partout autour de nous, et qu’ils nous observent bien tranquillement.

Oh rassurez-vous, je ne vais pas vous servir de la théorie du complot à la Rosewell ou X-Files, mais tout simplement argumenter que pour moi, cette hypothèse est la plus probable, et la plus raisonnable scientifiquement parlant.

View original post 1 412 mots de plus

COMMENT GAGNER À PIERRE-FEUILLE-CISEAUX (PRESQUE) À CHAQUE FOIS

Mots-clefs

 

Scissors Rock PaperMike Souza via Flickr CC Licence By

Non, pierre-feuille-ciseaux n’est pas un jeu de hasard. C’était ce qu’expliquait  Brad Fox dans une intervention sur Quora reprise sur Slate.fr et donnait au passage, six techniques pour l’emporter.

«Avant que tout le monde ne se moque, sachez qu’il y a de la technique dans ce sport qu’est pierre-feuille-ciseaux. Si vous regardez les participants des derniers championnats du monde de shifumi (qui rassemblent régulièrement plus de 500 compétiteurs), les mêmes personnes se retrouvent dans les premières places année après année, ce qui montre clairement que le talent peut avoir un effet majeur sur le résultat.»

 
publicité

Il existe plusieurs techniques pour battre son adversaire à pierre-feuille-ciseaux. On vous avait déjà conseillé de vous bander les yeuxMerci Alfred avait également diffusé ce flowchart en récupérant les données de la World Paper Society.

Plus récemment, la Technology Review du MIT a repéré que des scientifiques chinois de l’Université de Zhejiang ont également décidé d’apporter leur pierre à l’édifice.

«Zhijan Wang, Bin Xu et Hai-Jun Zhou ont conduit cette étude auprès de 360 étudiants de l’Université de Zhejiang et les ont répartis dans 60 groupes de six joueurs. Dans chaque groupe, ils joué 300 tours de pierre-feuille-ciseaux.»

Le premier tour n’est pas prévisible. Mais à partir du deuxième, cela devient plus stratégique, explique le Washington Post.

«Si un joueur gagne, il refera la même action.

S’il perd, il en changera généralement, dans le sens des aiguilles d’une montre. Il passera de la pierre au papier, du papier aux ciseaux et des ciseaux à la pierre.»

Cette étude vient donc finir de mettre à mal l’équilibre de Nash. Selon cette théorie des jeux, les joueurs choisissent autant chacune des options au fil du temps. Mais surtout, comme le remarque le Washington Post, cette étude a des implications fascinantes en ce qui concerne la psychologie.

«Il semble que les actions choisies suivent un modèle cyclique –ce qui veut dire que des joueurs sournois peuvent utiliser la « réponse conditionnelle« , une réaction à un stimulus spécifique, pour optimiser leurs chances.»

Pour les trois chercheurs, ce dernier aspect sera intéressant à analyser dans le futur:

«Sur un point plus biologique, que la réponse conditionnelle soit un mécanisme de prise de décision basique du cerveau humain ou simplement une conséquence des mécanismes neuraux plus fondamentaux représente un défi pour de prochaines études.»