Previous Article Next Article Qui a inventé l’Iphone ?
Posté dans Jeux et jouets

Qui a inventé l’Iphone ?

Qui a inventé l’Iphone ? Posté le 18 février 2022

La théorie du grand homme est revenue dans la culture populaire ces dernières années, réadaptée au monde des entrepreneurs, des start-ups technologiques et des conglomérats numériques. Elon Musk a révolutionné la voiture électrique. Mark Zuckerberg a été le pionnier du réseau social. Steve Jobs et son équipe chez Apple ont inventé l’iPhone.

Ces récits héroïques sont à la fois factuellement incorrects et inutiles. En termes d’éducation, toute une génération grandit grâce à des vidéos YouTube inspirantes qui vénèrent l’individualisme et certains traits de leadership troublants (voir ici pour le côté sombre de Jobs et Apple). Pourtant, les défis auxquels le monde est confronté – crises énergétiques, pénuries alimentaires, changement climatique, surpopulation – exigent la collaboration et la coopération de chacun d’entre nous, en tant que citoyens du monde et nations. Ces défis sont trop complexes, interconnectés et évoluent trop rapidement pour être résolus par une seule personne, idée, organisation ou nation. Nous devrons exploiter le principe fondamental qui sous-tend toute recherche : se tenir sur les épaules des géants, chaque nouvelle avancée s’appuyant sur le travail des autres avant elle. L’histoire cachée de l’iPhone en est un témoignage.

Le dynamisme et l’ingéniosité sans faille des nombreuses équipes d’Apple ne font aucun doute. Mais il existe des centaines de percées et d’innovations sans lesquelles l’iPhone ne serait même pas possible. Chacune d’entre elles est le fruit du travail d’innombrables chercheurs, universités, bailleurs de fonds, gouvernements et entreprises privées qui ont superposé les innovations les unes aux autres.

Pour vous en convaincre, nous allons examiner de plus près trois des avancées de la recherche qui sont à la base de l’iPhone.

L’ÉCRAN TACTILE

L’iPhone ne serait pas l’iPhone sans son emblématique technologie d’écran tactile.

Le premier écran tactile a en fait été inventé dans les années 1960 par Eric Arthur Johnson, un ingénieur radar travaillant dans un centre de recherche gouvernemental au Royaume-Uni. Pendant que les Righteous Brothers perdaient ce sentiment d’amour, Johnson publiait ses découvertes dans un article de Electronics Letters publié par l’Institution of Engineering and Technology. Son article de 1965, « Touch display-a novel input/output device for computers », continue d’être cité par les chercheurs à ce jour. Le brevet de 1969 qui s’ensuivit a été cité dans toute une série d’inventions célèbres, y compris le brevet d’Apple de 1997 pour « un téléphone cellulaire portable avec ordinateur ».

Depuis le premier bond en avant de Johnson, des milliards de dollars ont été alloués à la recherche sur la technologie des écrans tactiles, tant par des organismes publics que par des investisseurs privés, l’un entraînant souvent l’autre. L’université de Cambridge, par exemple, a récemment créé une société à responsabilité limitée afin d’obtenir des investissements supplémentaires pour ses propres recherches sur la technologie des écrans tactiles, et a réussi à boucler un tour de table de 5,5 millions de dollars soutenu par des investisseurs en capital-risque du Royaume-Uni et de Chine.

Un brevet Apple sur la technologie de l’écran tactile cite plus de 200 articles scientifiques examinés par des pairs, publiés par une série de sociétés académiques, d’éditeurs commerciaux et de presses universitaires. Ces auteurs ne travaillaient pas seuls. La plupart faisaient partie d’un groupe de recherche. Beaucoup ont bénéficié d’une subvention pour leurs recherches. Chacun a vu son article évalué de manière indépendante par au moins un universitaire externe dans le cadre du processus d’examen par les pairs qui est au cœur de la recherche universitaire. Prenons l’exemple d’un article sur la technologie des écrans tactiles récemment publié par la revue Information Sciences d’Elsevier. Six auteurs et deux pairs examinateurs aveugles y sont reconnus. En extrapolant prudemment ces chiffres sur les deux cents articles cités par Apple, on arrive à plus de mille chercheurs, chacun apportant sa contribution importante à ce domaine de la technologie des écrans tactiles.

Johnson a peut-être fait le premier pas, et Apple a exploité son potentiel, mais nous devons la technologie des écrans tactiles aux efforts collectifs de nombreux chercheurs du monde entier.

LA PILE AU LITHIUM

Inscrivez-vous aux bulletins d’information gratuits de Scientific American.

Batterie faible. Cligne des yeux, cligne des yeux. Nous savons tous que les iPhones consomment beaucoup d’énergie, mais ils ne seraient nulle part sans la batterie au lithium rechargeable.

Le scientifique britannique Stanley Whittingham a créé le tout premier exemple de batterie au lithium alors qu’il travaillait dans un laboratoire pour ExxonMobil dans les années 70, poursuivant les recherches qu’il avait initialement menées avec des collègues de l’université de Stanford. Des recherches antérieures avaient déjà indiqué que le lithium pouvait être utilisé pour stocker de l’énergie, mais c’est Whittingham et son équipe qui ont découvert comment le faire à température ambiante, sans risque d’explosion (Samsung en prend note).

Un professeur de l’université d’Oxford, John Goodenough, a ensuite amélioré les travaux originaux de Whittingham en utilisant des oxydes métalliques pour accroître les performances. Ces travaux ont à leur tour suscité l’intérêt de Sony, qui est devenue la première entreprise à commercialiser des batteries au lithium dans les années 1990 et a lancé un téléphone portable alimenté au lithium au Japon en 1991. Tout cela a jeté les bases d’une utilisation de masse, qu’Apple a dûment respectée en lançant l’iPhone à plus d’un million d’utilisateurs en 2007.

L’histoire du lithium ne s’arrête pas là. Le lithium étant l’un des éléments constitutifs d’un monde sans combustibles fossiles, sa production est surveillée avec zèle. À votre avis, qui a racheté l’activité batteries de Sony en 2016 ? L’un des principaux fournisseurs d’Apple, Murata Manufacturing. Pendant ce temps, John Goodenough, aujourd’hui âgé de 95 ans, poursuit ses recherches révolutionnaires. Il y a quelques mois à peine, il a publié une étude marquante dans le Journal of the American Chemical Society. Parmi ses affirmations ? Que Goodenough avait créé une batterie au lithium pour les voitures électriques qui peut être utilisée 23 fois plus que la moyenne actuelle.

L’INTERNET ET LE WORLD WIDE WEB

Lorsque l’ingénieur Andy Grignon d’Apple a ajouté pour la première fois une fonctionnalité Internet à un iPod en 2004, Steve Jobs était loin d’être enthousiaste : « C’est de la merde. Je n’en veux pas. Je sais que ça marche, je l’ai, super, merci, mais c’est une expérience de merde. »

Le travail minutieux de multiples équipes d’Apple a pris une « expérience de merde » et a fait quelque chose de révolutionnaire – toute l’expérience et la connaissance humaine collective juste là, dans votre poche arrière, au bout de vos doigts. Mais qui devons-nous remercier pour cela ?

Sir Tim Berners-Lee est largement crédité de l’invention du World Wide Web. Ses travaux ont débuté dans les années 1980, alors qu’il travaillait à l’Organisation européenne pour la recherche nucléaire. Plus connu sous son acronyme français, le CERN a été créé par 12 gouvernements européens en 1952 et continue d’être financé par ses États membres. Les idées de Berners-Lee ont d’abord consisté à proposer une solution à un problème très spécifique au CERN : comment faciliter au mieux le partage et la mise à jour des vastes quantités d’informations et de données utilisées par les chercheurs du CERN. Sa proposition était basée sur le concept d’hypertexte, un terme inventé par le pionnier de la théorie Ted Nelson dans un article publié en 1965 par l’Association for Computing Machinery. Souvent comparé à une version électronique du système de notes de bas de page utilisé par les chercheurs du monde entier, l’hypertexte est à la base du web, permettant de passer d’une source d’information à une autre. N’importe où sur l’internet. Sous quelque forme que ce soit.

Mais même Berners-Lee ne peut être crédité seul. Si le World Wide Web est la carte, l’internet est le paysage sur lequel nous naviguons : une infrastructure de réseau reliant des millions d’ordinateurs dans le monde, permettant à chacun de communiquer avec les autres et de transférer de grandes quantités d’informations.

Pour retracer les origines de l’internet, il faut retourner en 1965. Alors que Nelson inventait l’hypertexte et Eric l’écran tactile, deux chercheurs du MIT, Thomas Merrill et Lawrence Roberts, connectaient leur ordinateur à un autre ordinateur situé à 5 000 km de là, en Californie, à l’aide d’une simple ligne téléphonique à bas débit. Peu après est apparu Arpanet, non pas un système d’IA dystopique, mais le réseau de l’Advanced Research Projects Agency. Arpanet a été créé et financé par la DARPA, l’Agence américaine pour les projets de recherche avancée en matière de défense, et initialement conçu comme un moyen d’interconnecter les ordinateurs de l’armée américaine entre leurs différents centres régionaux.

Le cours de la véritable innovation n’a jamais été sans heurts. Mais ces premières percées de l’ère spatiale ont servi de base à tout ce qui allait suivre. Si l’iPhone moderne est aujourd’hui 120 millions de fois plus puissant que les ordinateurs qui ont emmené Apollo 11 sur la lune, sa véritable puissance réside dans sa capacité à exploiter les milliards de sites web et de téraoctets qui constituent l’internet.

Une brève analyse de ces trois percées de la recherche révèle une toile de recherche de plus de 400 000 publications depuis qu’Apple a publié son premier brevet de téléphone en 1997. Si l’on ajoute le facteur des chercheurs, des bailleurs de fonds, des universités et des entreprises qui les soutiennent, le réseau de contribution est tout simplement impressionnant. Et nous n’avons fait qu’effleurer la surface. Il existe d’innombrables autres percées de la recherche sans lesquelles l’iPhone ne serait pas possible. Certaines sont connues, d’autres moins. Le GPS et Siri ont tous deux été créés par l’armée américaine, tandis que les algorithmes complexes qui permettent la numérisation ont été initialement conçus pour détecter les essais nucléaires. La recherche était au cœur de tous ces projets.

L’iPhone est une technologie qui définit une époque. Les technologies qui définissent une époque ne sont pas le fruit de la rareté d’une personne ou d’une organisation, mais de plusieurs couches d’innovation et de dizaines d’années de recherche, avec des milliers de personnes et d’organisations se tenant les unes sur les autres et regardant un peu plus loin dans le futur. À notre époque où les défis mondiaux semblent insurmontables, nous devons non seulement nous en souvenir, mais aussi nous en inspirer.

Nous devons encourager l’ouverture et la transparence au cœur de la recherche, en veillant à ce qu’elle soit diffusée aussi largement, rapidement et clairement que possible. Nous devons nous rappeler que chaque retard et chaque déformation comptent. L’intégrité et la reproductibilité de la recherche, l’évaluation transparente par les pairs, l’accès ouvert, la diversité – ce sont plus que des mots à la mode. Ce sont des étapes passionnantes vers la réforme de l’infrastructure d’un écosystème de recherche mondial qui a toujours été notre meilleur espoir pour l’avenir.