Année 2007

Vous trouverez sur cette page quelques éléments marquants de l'actualité mathématique internationale. Celle-ci n'est bien entendu pas exhaustive ; ne sont donc présentées que les dernières découvertes et les importantes avancées dans les démonstrations de problèmes historiques. Un zeste de physique est aussi au rendez-vous.
 

Nouvelles de 2007

Un nouveau mode de scrutin, un autre président ?

24/05/2007

Cette brève sur le jugement majoritaire est adaptée d'un article de David Larousserie dans Sciences & Avenir.
Où l'on voit que François Bayrou est le « vainqueur de Condorcet », c'est-à-dire une personne capable de battre n'importe qui en un contre un, mais incapable d'accéder au second tour. En effet, le théorème d'impossibilité d'Arrow et le paradoxe de Condorcet montrent qu'une volonté générale ne peut être établie à partir d'une somme de volontés individuelles.

Le scrutin majoritaire à deux tours n'est pas la seule méthode possible pour choisir un président de la République. Avec les mêmes candidats mais un mode de scrutin totalement différent, la France aurait peut-être élu un autre président, selon une expérience menée pendant les élections présidentielles.

Un autre type de scrutin aurait pu désigner François Bayrou plutôt que Nicolas Sarkozy comme président de la République. Les mathématiciens du laboratoire d'économétrie de l'École Polytechnique, Michel Balinski et Rida Laraki, ont testé dans trois bureaux de vote d'Orsay (Essonne) leur nouvelle méthode pour élire un candidat en un tour : le jugement majoritaire.
Après avoir glissé leur bulletin dans l'urne officielle, 1752 personnes (sur les 2360 ayant voté ce jour-là dans les trois bureaux) ont rempli un autre bulletin assez particulier sur lequel ils devaient donner une mention à chacun des candidats, comme à des écoliers : Très bien, Bien, Assez bien, Passable, Insuffisant, À rejeter. La même appréciation pouvait être donnée à plusieurs candidats.

La seconde originalité du jugement majoritaire réside dans la façon d'ordonner les résultats. Le gagnant est celui qui obtient la meilleure mention majoritaire. Celle-ci est la médiane des mentions obtenues par un candidat et non pas la « moyenne » que l'on pourrait calculer en faisant correspondre des notes aux appréciations. Par exemple, une appréciation majoritaire « assez bien » signifie que la majorité des votants a attribué une mention au moins aussi bonne, soit « très bien », « bien » ou « assez bien ». En fait, il suffit d'additionner les pourcentages obtenus pour chaque mention en partant des plus hautes ; la mention qui permet de dépasser 50% est la mention majoritaire.

À Orsay, Ségolène Royal, Nicolas Sarkozy et François Bayrou (arrivés dans cet ordre au premier tour dans les trois bureaux) ont obtenu la mention « assez bien ». Avec le jugement majoritaire, François Bayrou aurait été élu car il totalise plus de mentions au-dessus d'« assez bien » que ses concurrents. Royal aurait été seconde et Sarkozy troisième. Les résultats complets se trouvent sur le site du CECO.
L'expérience est riche d'enseignements, selon les chercheurs. « Trois candidats se distinguent nettement », résume Michel Balinski. « Quatre, dont Jean-Marie Le Pen, sont à rejeter. Dominique Voynet est quatrième ce qui témoigne d'un intérêt pour l'environnement impossible à voir dans le mode de scrutin actuel. » Plus d'un électeur sur trois a donné sa meilleure mention à au moins deux candidats, ce qui montre l'absence de choix nets, contrairement à ce que le mode de scrutin actuel oblige à faire. De même, la méthode ne favorise pas le centre, puisque Bayrou n'a pas gagné dans les trois bureaux.

Ce mode de scrutin innovant permet aussi de tester les duels entre deux candidats. En permettant la nuance, le jugement majoritaire rend quasi inopérantes les stratégies de vote, celles qui conduisent à voter moins pour sa préférence que pour faire « barrage » ou voter « utile ». Dans cette méthode, il ne sert à rien d'augmenter par calcul électoral la mention d'un candidat dès lors que la médiane est inférieure à celle-ci. Inversement, « descendre » un candidat n'est pas plus payant. Par exemple, Voynet a eu la mention « passable » mais ceux qui lui ont mis « assez bien » n'auraient pas changer le résultat en lui mettant « très bien ». Bref, le choix paraît plus sincère.
Ce ne serait pas la même chose si des chiffres ou des notes remplaçaient les appréciations et si l'on calculait des moyennes, selon les chercheurs. Ils critiquent ainsi par avance d'autres méthodes de ce genre qui ont été également testées en France pour ces élections sous l'égide du Conseil d'Analyse Stratégique (ex-Commissariat au Plan) et dont les résultats seront bientôt connus.

Les chercheurs justifient très scientifiquement les qualités de leur proposition qui a déjà été appliquée avec succès pour un concours... d'œnologie.

Les consommateurs et les pourcentages

14/05/2007

Le professeur Akshay Rao de l'Université du Minnesota et l'assistant professeur Haipeng Chen de l'Université de Miami ont découvert que les consommateurs considèrent les pourcentages comme des nombres usuels, ce qui conduit à des erreurs grossières systématiques. Dans les magasins, les réductions sur les prix des produits sont souvent exprimées en pourcentage mais dès que plusieurs pourcentages s'appliquent sur le même produit, les consommateurs se trompent dans l'évaluation des prix qui en résultent. Par exemple, une réduction de 25% suivie d'une autre réduction de 25% sur un produit coûtant 100 € ne le fait pas à moitié prix (50 €) mais à 56 € car 0,75×0,75 = 0,56 (soit 44% de réduction effective).

Il est aussi intéressant de remarquer qu'un tel effet peut être trompeur lorsque l'on applique une augmentation suivie d'une réduction. C'est notamment vrai dans le secteur boursier. Par exemple, une augmentation de 40% du prix d'une action suivie d'une perte de 30% de celle-ci correspond à... une perte globale de 2% ! Et surtout pas à un gain de 10% car 1,4×0,7 = 0,98.

Un étudiant de 19 ans améliore la constante d'Euler-Mascheroni

09/04/2007

Alexander J. Yee, un étudiant de 19 ans en informatique à l'Université Northwestern d'Evanston (dans l'Illinois), a récemment remporté l'équivalent mathématique d'une médaille olympique en calculant 116 580 041 de décimales de la constante d'Euler-Mascheroni en 38 heures et demie (le 8 décembre 2006). Le précédent record était de 108 millions de décimales, calculées en octobre 1999 par les Français Xavier Gourdon et Patrick Demichel.
Espérons qu'il fera une brillante carrière dans la recherche !

Rappelons que la constante d'Euler-Mascheroni est la limite de la suite harmonique à laquelle l'on retranche son équivalent ln(n). Elle vaut 0.5772... et l'on ne sait même pas si elle est rationnelle ! Notons que Papanikolaou a démontré que si c'était le cas, son dénominateur serait supérieur à 10242 080. Cependant, il est conjecturé que γ serait transcendant.
Elle est plus connue sous le nom de constante d'Euler puisqu'il l'a trouvée en 1735 et qu'il en calcula 16 décimales en 1781. C'est Mascheroni qui la nota γ en 1790 ; il en calcula alors 32 décimales – mais seules les 19 premières étaient justes ! Soldner en calcula 40 en 1809, ce que vérifièrent Gauß et Nicolai en 1812.

Prix Abel 2007 à Srinivasa Varadhan pour ses contributions à la théorie des probabilités

28/03/2007

Quelle était la probabilité pour le mathématicien indien Srinivasa Varadhan de recevoir le prix Abel, haute distinction dans sa discipline ? Il est peu probable que ce chercheur de 67 ans se soit adonné à ce calcul. Ce spécialiste du hasard et de l'inattendu s'est déclaré surpris que l'Académie norvégienne des Sciences et des Lettres lui remette ce prix pour couronner l'ensemble de son œuvre en théorie des probabilités et en particulier sur la théorie unifiée des grandes déviations (la part d'inattendu que la loi des grands nombres de Bernoulli ne prévoit pas).

Les retombées de cette théorie concernent aussi bien la physique que la biologie, l'économie et la finance, l'informatique ou l'ingénierie, souligne l'Académie norvégienne. « Elle a aussi permis une extension considérable de notre capacité à utiliser des ordinateurs pour simuler et analyser l'occurrence d'événements rares ».

Application des groupes de Lie à la théorie des supercordes

25/03/2007

Une équipe de 18 mathématiciens vient de résoudre un important problème mathématique centenaire : après quatre années de travail de recherche mathématique et de programmation puis 77 heures de calculs sur ordinateur, ils ont déterminé la structure complète du groupe de Lie E8. L'information recueillie est 60 fois plus grande que celle contenue dans l'ADN d'une seule cellule et pourrait être à l'origine d'une révolution en théorie des supercordes.
David Vogan, professeur de mathématiques au Massachusetts Institute of Technology, a annoncé la découverte lors d'une conférence intitulée « La table des caractères E8, ou comment nous avons rempli une grille de 453 060 par 453 060 et découvert le bonheur ».

Les groupes, d'abord étudiés par Évariste Galois pour comprendre la résolution d'équations algébriques par radicaux, jouent un rôle primordial en mathématiques et y sont omniprésents. Le Norvégien Sophus Lie construisit l'analogue de la théorie des groupes de Galois pour les équations différentielles en 1888, dans le but de les classer et de répertorier leurs méthodes de résolution. Les célèbres mathématiciens Killing, Cartan et Weyl sont parvenus à une classification théorique complète, mais sans expliciter la structure des groupes mis en évidence par les diagrammes de Dynkin et qui permettent de caractériser des objets selon l'ensemble de leurs symétries : les quatre familles de groupes de Lie classiques An, Bn, Cn et Dnn est un entier respectivement supérieur à 1, 2, 3 et 4, et les cinq groupes exceptionnels E6, E7, E8, F4 et G2.
Toute équation différentielle intégrable a son groupe de Lie qui est un composé des éléments de ces familles. Un groupe de Lie – comme Rn, GLn(R) ou SOn(R) – est une variété différentielle réelle ou complexe munie d'une structure de groupe, les opérations sur ce groupe devant également être différentiables ou holomorphes.

Les 60 Go d'informations obtenues sur le groupe de Lie E8 (les symétries d'un objet de 57 dimensions décrites dans un groupe à 248 dimensions) pourront peut-être apporter des éléments importants sur la mécanique quantique, la formation de l'univers ou l'unification des quatre interactions élémentaires (gravitation, électromagnétisme, nucléaires faibles et nucléaires fortes). C'est ce dernier point qui touche à la théorie des supercordes, visant à fournir une description de la gravité quantique et de la relativité générale, grâce aux hypothèses suivantes :

Paul Cohen s'est éteint

23/03/2007

Le mathématicien américain Paul Joseph Cohen, né 2 avril 1934 et mort le 23 mars 2007 des suites d'une maladie pulmonaire, est surtout connu pour avoir démontré en 1963 que l'hypothèse du continu (il n'existe aucun ensemble de cardinal compris strictement entre celui des entiers naturels et celui des nombres réels) et l'axiome du choix (étant donné une famille non vide d'ensembles non vides, il existe une fonction, appelée fonction de choix, qui à chacun d'entre eux associe un de ses éléments) étaient indépendants des axiomes de la théorie des ensembles de Zermelo-Fraenkel-Skolem. Ses travaux lui ont valu la médaille Fields en 1966.

Il a utilisé pour cela une méthode originale qui consiste à agrandir l'ensemble sur lequel on travaille pour en étudier de nouvelles propriétés : c'est le forcing.

Le printemps un 21 mars ?

21/03/2007

Le 21 mars 2007 est le jour du printemps. Cela semble normal alors que, bien au contraire, ce sera la dernière fois du siècle où le printemps tombera un 21 mars, date pourtant la plus fréquente tout au long du siècle dernier !

Le jour du printemps est défini comme le point vernal (du latin uer qui signifie « printemps ») correspondant à l'équinoxe (aequus nox, l'égale nuit : le Soleil se lève à l'est exactement là où il se couchera plus tard à l'ouest, ce qui fait que la durée du jour et de la nuit sont alors égales). Ce même phénomène se produit le jour de l'automne. Au moment des équinoxes, le Soleil est à la verticale de l'équateur et les deux pôles sont identiquement éclairés ; pour l'un, c'est le début d'une journée de six mois tandis que pour l'autre, c'est le début d'une longue nuit de six mois.

Notons pour l'anecdote que les éphémérides annoncent une différence d'une dizaine de minutes entre la durée de la nuit et celle du jour ; cela correspond à la réfraction des rayons du Soleil dans l'atmosphère. L'astre du jour semble alors encore visible alors qu'il s'est déjà couché depuis plusieurs minutes !

Et quand sera le prochain printemps tombant un 21 mars ? En 2102 !
En attendant, il aura lieu le 20 mars jusqu'en 2043 inclus puis oscillera entre le 19 et le 20 mars – il ne peut pas aller plus loin grâce aux années bissextiles.
Quant au jour de l'automne, il tombe le 21, 22, 23 ou 24 septembre. La première fois où il tombera le 21 septembre, depuis la création du calendrier grégorien, sera en 2092 (puis en 2096 et en 2464). Le prochain 24 septembre sera en 2303, et ce sera la dernière fois !

Les cours et exercices du MIT en ligne

02/03/2007

La plus célèbre université privée des États-Unis, à savoir le MIT (Massachusetts Institute of Technology) prévoit de mettre gratuitement à la disposition de tous les internautes la totalité des cours qui y sont dispensés avant la fin de l'année.

Ce projet se nomme OpenCourseWare et comprend déjà la plupart des matières enseignées. Je ne puis que vous conseiller d'aller y jeter un coup d'œil : vous y trouverez moult cours et exercices corrigés. Les parties relatives aux mathématiques et à l'informatique sont notamment très bien fournies.

La lumière stoppée puis recréée

09/02/2007

Pour la première fois, des physiciens ont réussi à stopper la lumière et à la faire réapparaître un tout petit peu plus loin !

Lene Vestergaard Hau et ses collègues (Harvard Université, USA) avaient auparavant utilisé deux condensats de Bose-Einstein pour stopper la lumière et ainsi la stocker brièvement ; ces condensats sont des états de la matière formés de bosons à une température suffisamment basse, caractérisés par une fraction macroscopique d'atomes dans l'état quantique de plus basse énergie.
Cette fois-ci, grâce à deux nuages d'atomes de sodium, lorsque l'impulsion laser traverse le premier condensat, elle se transforme en onde de matière ; puis lorsque cette onde entre dans le second nuage d'atomes situé à 50 micromètres du premier, elle se transforme en lumière, faisant ainsi renaître l'impulsion stockée dans le premier condensat.

Cette découverte pourrait avoir des retombées en informatique et en cryptographie quantique puisque l'on a une possibilité de contrôle de l'information optique.

Fonctions de hachage plus sûres

23/01/2007

Le gouvernement américain va prochainement lancer un concours pour développer une fonction de hachage cryptographique plus sûre que les standards actuels.
Ces fonctions prennent comme argument des caractères (qui peuvent être un simple mot de passe ou un très long message) et renvoient de manière déterministe un ensemble beaucoup plus petit, de l'ordre d'une centaine de bits. Leur utilité en informatique est primordiale, notamment pour signer des messages ou pour stocker les empreintes de chaînes de caractères et ainsi les rechercher très rapidement à l'aide de tables de hachage.

Pour le moment, le NIST, à savoir le National Institute of Standards and Technology, appelle à des commentaires sur les conditions requises par les futurs algorithmes de hachage. Quoi qu'il en soit, rappelons qu'une telle fonction de hachage se doit de posséder les propriétés suivantes :

Par « très difficile », on entend « techniquement impossible » à la fois au niveau algorithmique et au niveau matériel. Il faut savoir que le MD5 n'est par exemple plus considéré comme sûr puisque l'on sait désormais trouver deux messages aléatoires qui génèrent la même empreinte. Il est probable que le SHA-1 ne sera plus suffisant dans le futur.

Nombres premiers jumeaux

15/01/2007

Les deux plus grands nombres premiers jumeaux ont été trouvés le 15 janvier 2007 par le Français Éric Vautier grâce à deux projets de calcul distribué : Twin Prime Search et PrimeGrid. Ils comportent 58 711 chiffres et sont égaux à 2 003 663 613×2195 000 ± 1.

Rappelons que des nombres premiers jumeaux sont un couple de nombres premiers qui ne diffèrent que de deux, distance minimale entre deux nombres premiers hormis 2 et 3. Nous avons par exemple les couples (5, 7), (11, 13), (599, 601). Lorsqu'ils diffèrent de 4, ce sont des nombres premiers cousins et de 6, des nombres premiers sexy.
À part (3,5), tout couple de nombres premiers jumeaux est de la forme (6n - 1, 6n + 1) pour un certain entier n. De plus, pour tout entier m supérieur ou égal à 2, m et m + 2 sont des nombres premiers jumeaux si, et seulement si, 4[(m - 1)! + 1] + m est congru à 0 modulo m(m + 2), d'après un résultat de Clément datant de 1949.

La série des inverses des nombres premiers jumeaux est convergente vers la constante de Brun qui vaut à peu près 1,902.
La conjecture des nombres premiers jumeaux affirme qu'il existe une infinité de nombres premiers jumeaux. On s'accorde à penser qu'elle est vraie mais cela n'a pas été démontré.
Il est aussi conjecturé que tout nombre pair est une somme de deux nombres pris parmi les nombres premiers jumeaux, excepté un nombre fini dont les premiers sont 2, 4, 94, 96, 98, 400 et 402.

Notons enfin que c'est en étudiant les nombres premiers jumeaux que Thomas Nicely a découvert en 1995 le bogue de division de l'Intel Pentium qui renvoyait toujours une valeur erronée par excès. L'erreur provenait de l'initialisation incomplète dans le processeur d'une table de valeurs servant à un nouvel algorithme de division plus rapide.

 

↑ Retour au haut de cette page

Pages connexes

← Retour au menu précédent