--> Cours ISN n°4
Histoire de l'informatique
Partie II
La première partie de ce cours est une copie d'une partie du site :

https://delmas-rigoutsos.nom.fr/documents/YDelmas-histoire_informatique/index.html
La première industrie Cette période est celle de l'industrialisation progressive de l'ordinateur, qui passe de quelques unités existant dans le monde à des centaines de milliers, principalement à destination de la recherche et de grandes entreprises. Cette période va, grossièrement des années 1950 au milieu des années 1970. La seconde génération Les premières machines, gros calculateurs et premiers ordinateurs, étaient extrêmement coûteux à acquérir, encombrants et dispendieux à faire fonctionner. Mais surtout, ils allaient bien au-delà des besoins civils de l'époque. Beaucoup, y compris certains pionniers, ne voyaient aucun avenir commercial à l'ordinateur : c'était d'abord une technologie de pointe destinée aux laboratoires de recherche et à l'armée. C'est la machine elle-même qui créera le besoin… avec l'aide du transistor à semi-conducteur. En effet, les tubes à vide demandent, pour beaucoup, d'être chauffés, ce qui occasionne une dépense énergétique importante ; ils sont coûteux à fabriquer, d'où un coût d'investissement élevé, et enfin sont fragiles, ce qui oblige à les changer régulièrement, d'où un coût de maintenance lui aussi élevé. Cette fragilité occasionne également des interruptions d'exploitation et limite, de fait, la taille des machines. Tout cela change avec l'invention du transistor.

Les semi-conducteurs sont découverts et le transistor conçu en 1947 (prix Nobel de physique en 1956) au sein des laboratoires Bell. Il sera diffusé très largement dès 1948. Comparés aux tubes électroniques les dispositifs à semi-conducteurs (principalement les diodes et transistors) sont simples, bon marché, peu encombrants, résistants, durables et consomment peu. Autre avantage : les semi-conducteurs peuvent remplacer assez aisément (une fois la technologie maîtrisée) la plupart des anciens dispositifs à tubes. Les coûts d'exploitation et d'acquisition chutent considérablement.

Dans ce secteur tertiaire, l'industrie des machines de bureau, IBM en tête, est déjà très présente. Précisément, cette industrie dispose déjà de circuits de promotion et de distribution. De plus, elle bénéficie d'une solide assise financière qui lui permet de vendre à perte jusqu'à asphyxier de nouveaux entrants, y compris plus performant financièrement et/ou techniquement. La clientèle est alors plus importante que l'avantage technologique. À l'époque de la fin des tubes à vide, une industrie informatique s'est donc déjà établie, en dehors des laboratoires universitaires et militaires, d'emblée sous la large domination d'IBM. Durant la seconde génération (jusqu'en 1966), IBM a pu assurer entre la moitié et les deux-tiers de la production mondiale d'ordinateurs.

Le PDP-8 de 1962
Le premier ordinateur produit en masse est l'IBM 650. C'est celui pour lequel on invente le mot ordinateur en France. Il est diffusé dès 1954 aux États-Unis d'Amérique et en 1955 en France. Il sera vendu à plus de 1 500 unités dans le monde.

Deuxième grand avantage des transistors : la miniaturisation, première forme de libération technique. Cette course à la miniaturisation sera d'emblée et depuis lors un des principes cardinaux de l'industrie informatique. Principe cardinal vite compris, et très explicitement, par les responsables de DEC (un des principaux fabricants de l'époque), qui lance le nom «mini-ordinateur», inspiré de la minijupe lancée en 1962, pour le PDP-8, qui sera un best-seller de sa catégorie. En 1965, une publicité du PDP-8 montre celui-ci posé à l'arrière d'une décapotable. Tout un programme…

L'opposition est marquée avec les gros systèmes centralisés d'entreprise. Il s'agit désormais de s'adresser à de plus petites organisations, services et même individus. Ce sera un franc succès (près de 50 000 PDP-8 vendus, plus que tous ses prédécesseurs), y compris auprès d'utilisateurs non techniciens (sachant quand même que le prix du PDP-8 ramené en 2012 serait d'environ 19 à 45k€, selon les versions). La voie est désormais ouverte à l'ordinateur pour conquérir une société déjà extrêmement bureaucratisée donc avide de statistiques, de comptes, de bilans et autres rapports. Qui plus est, le secteur tertiaire, très développé et en position de force, est très bien disposé à l'égard de l'innovation technologique. La troisième génération En 1958, Jack Kilby (1923-2005) et Robert Noyce (1927-1990) inventent indépendamment le circuit intégré, c'est à dire la possibilité de graver des circuits et de nombreux composants sur une même galette de silicium, une même « puce » (chip) — aujourd'hui plusieurs milliards. En 1959 un brevet est déposé. Cette technologie conduira plus tard aux mémoires intégrées (1970) puis aux microprocesseurs (1971) et enfin aux micro-ordinateurs (1972). Cette évolution technologique du matériel (hardware), très rapide et dans la même ligne directrice que la précédente, n'est pas qu'affaire d'informaticiens et d'industriels ; elle a eu une incidence considérable sur la société, chaque évolution technologique marquant l'extension de l'informatique à de nouveaux secteurs de la population.

L'intégration, en particulier la possibilité d'intégrer l'essentiel de l'ordinateur sur une puce, le micro-processeur, ouvrait la voie à une miniaturisation bien plus considérable et une baisse importante des coûts de fabrication. Accessoirement pour l'époque, elle ouvrait également la voie à une augmentation rapide de la puissance des ordinateurs, comme nous le verrons plus loin. Le plus important, dans un premier temps, fut la baisse du prix. C'est pour cette raison que fut conçu dès 1973 le Micral, premier micro-ordinateur. Il était d'une puissance comparable à celle du mini-ordinateur PDP-8, mais cinq fois moins cher. Le Micral, conçu en France, était construit autour du microprocesseur 8008 d'Intel.
1965 1970
États-Unis (moyens et gros) 3 700 14 000
Japon (moyens et gros) 850 2 300
Europe (moyens et gros) 3 580 9 800
États-Unis (petits) 20 000 40 000
Japon (petits) 450 4 700
Europe (petits) 2 500 4 700
total env. 31 000 env. 75 500
Nombre d'ordinateurs en service Avec l'industrialisation, le chercheur en cybernétique et l'ingénieur concepteur d'ordinateur laissent la place à l'expert informatique, qui prend une place de plus en plus importante dans les grandes organisation qui mettent en place un traitement systématique de l'information. Peu à peu, les données concernant les individus prennent une importance considérable dans la société. En 1974, les États-Unis d'Amérique adoptent une loi informatique et liberté et la France constitue la CNIL. Cette extension toujours plus grande de l'informatique, permise par la miniaturisation et la baisse des prix, conduit, à cette date à une nouvelle période de l'informatique que nous avons appelée «ère de la loi de Moore». Certains auteurs parlent de quatrième génération pour les ordinateurs à base de microprocesseurs. L'ère de la “loi” de Moore Cette période fait suite, par rapport à la précédente, à une mutation profonde tant de la technique de construction, que de la population des utilisateurs, que des usages et, plus généralement, d'une ambition nouvelle pour l'ordinateur. Durant cette période, l'ordinateur devient un produit de masse qui se répand dans de nombreux foyers. Cette période va, grossièrement, du milieu des années 1970, avec l'inversion de la loi de Grosh (1974) à la fin des années 1990, avec la maturité du Web. La miniaturisation La miniaturisation, amorcée avec l'utilisation du transistor (2e génération), considérablement accrue avec l'utilisation des circuits intégrés (3e génération), gagne encore un ordre de grandeur dans la puissance disponible avec l'utilisation des microprocesseurs (on parle parfois de 4e génération). L'essentiel de l'ordinateur est maintenant regroupé sur une puce unique : le microprocesseur. Ce saut qualitatif considérable va amener une rupture majeure dans les usages et la pénétration de l'ordinateur dans la société.

Le premier saut qualitatif est l'inversion de la loi de Grosh, qui intervient en 1974, et peut marquer le début de ce que nous appellerons l'« ère de la loi de Moore ». Cette inversion est le fait qu'à partir de 1974, le nombre d'opérations par seconde et par dollar (de coût d'ordinateur) est bien moindre avec de petits ordinateurs. Avant 1974, en revanche, la productivité informatique était en faveur des gros ordinateurs. De ce fait, il devient donc économiquement plus intéressant de multiplier les ordinateurs plutôt que de pousser au gigantisme. Les séries de production se multiplieront, avec la miniaturisation, et les ordinateurs deviendront de moins en moins chers, à puissance égale. Bien entendu, cette évolution se fait progressivement et la date de 1974 ne doit pas être entendue au pied de la lettre : les gros systèmes ne disparaissent pas du jour au lendemain, ils sont remplacés, peu à peu par les mini-ordinateurs, puis les micro-ordinateurs. Les gros ordinateurs continuent à être vendus, en nombre restreint, même si leur intérêt relatif a diminué.

Le premier microprocesseur, l'Intel 4004, sort en 1971. La micro-informatique, professionnelle, puis personnelle se développe ensuite à partir du milieu des années 1970. En 1972, François Gernelle (1944-) conçoit le premier micro-ordinateur, le Micral N, autour du microprocesseur 8008 d'Intel. Celui-ci suscite de nombreux émules, principalement à destination des hobbyistes, dont beaucoup en kit, vendu quelques centaines de dollars seulement. Parmi eux l'Apple I (1976), rapidement suivi de l'Apple II, qui s'imposa largement dans le secteur des hobbyistes. À la fin des années 1970, Apple a la plus forte croissance du secteur. IBM lance alors, en 1981, l'« ordinateur personnel », le PC, avec une architecture standardisée garantissant une compatibilité ascendante (les « compatibles PC »). L'ordinateur est désormais largement accessible aux particuliers (non nécessairement hobbyistes). Le nombre de machines explose, y compris après les chocs pétroliers. Avant de vendre des ordinateurs, IBM et les autres grandes compagnies vendent d'abord l'idée que l'information est stratégique. Cette idée, qui s'appuie notamment sur les écrits de Wiener et von Neumann, est alors largement diffusée, tant dans l'establishment que dans la contre-culture ( « savoir, c'est pouvoir » ). Plus généralement, avec l'ordinateur on vend la modernité et un nouveau mode d'organisation de l'entreprise, de l'administration. L'information devient une nouvelle matière première, un nouveau carburant. Faisant le parallèle avec le charbon (la machine à vapeur) du 19e siècle, des idéologues technophiles prophétisent l'avènement d'une seconde révolution industrielle. Là où la génération précédente faisait des bestsellers à quelques milliers d'exemplaires vendus, on passe maintenant au million : de 1982 à 1988, IBM vend plus de 15 millions de PC. La “loi” de Moore En 1965, Gordon Moore (1929-), un des fondateurs d'Intel prédit un doublement de l'intégration chaque année, c'est-à-dire, grossièrement, un doublement du nombre de transistors intégrables sur une même puce (sachant qu'il n'y a pas que des transistors sur ces puces). Il révisera son optimisme en 1975 en prévoyant que le nombre de transistors des processeurs doublerait à coût constant tous les deux ans. Cette « loi de Moore » est assez bien vérifiée empiriquement. On l'exprime souvent sous la forme simplifiée d'un doublement de puissance brute des ordinateurs (mémoire, capacité des disques, puissance des processeurs) tous les 18 mois. Cette seconde forme n'a pas de définition technique précise, elle est donc invérifiable à proprement parler, mais donne un ordre de grandeur estimatif commode. Si l'on prend l'hypothèse d'un doublement tous les deux ans, on obtient grossièrement un facteur 10 pour 6 ans, 30 pour 10 ans, 200 pour 15 ans et 1 000 pour vingt ans. Il s'agit d'une progression exponentielle fulgurante, qui, bien sûr, ne peut durer éternellement. Sa fin était assez justement estimée pour le début des années 2000, pour des raisons physiques sur lesquelles nous reviendrons plus loin. Ceci fixe les bornes (1971-2005) d'une deuxième ère de l'informatique, que nous appelons l'« ère de la loi de Moore ».

Quel genre de loi est donc la “loi” de Moore ? Certainement pas une loi judiciaire. Ni une loi physique, puisqu'elle décrit, finalement, une vitesse de mise sur le marché de produits. On pourrait y voir une loi historique puisqu'elle décrit une série de faits historiques (bien avérés d'ailleurs). Souvenons-nous donc qu'elle fut formulée avant ces faits ! La loi de Moore est ainsi d'abord et avant tout un plan de marche, un programme de recherche et développement, pour l'ensemble d'une industrie.

Quelles sont ses conséquences ? Tout d'abord, cette loi s'applique à un nouveau contexte technologique et commercial : le produit dominant de cette période est le micro-ordinateur. Celui-ci est de moins en moins encombrant et de plus en plus accessible financièrement pour les ménages. Il devient une composante de l'électroménager domestique. Comparons l'ordinateur à d'autres biens d'équipement, lave-linge ou télévision. Dans une première phase les ménages les plus aisés s'équipent, les constructeurs s'efforcent donc de valoriser leurs marques : celui qui fait de meilleures machines peut espérer en vendre plus ou plus cher. Dans un second temps, quand les ménages sont largement équipés, il n'est plus possible de vendre autant de machines et il faut donc forcer le renouvellement du parc : soit en abaissant leur durabilité (lave-linge), soit en imposant des ruptures techniques (télévision). Revenons aux ordinateurs. Nombre d'unités centrales conçues aujourd'hui, avec une bonne maintenance, peuvent durer plus de dix ans. Contrairement aux machines à laver, les ordinateurs utilisent assez peu de pièces mobiles, il n'est donc pas aisé de diminuer artificiellement leur durée de vie physique. L'industrie s'appuya donc sur la loi de Moore. Puisque cette loi était connue des éditeurs, ceux-ci pouvaient développer des logiciels gourmands en puissance au moment de leur conception : la puissance des ordinateurs au moment de la diffusion devant (en principe) devenir suffisante. Autrement dit, l'achat de nouveaux logiciels commande l'achat d'un nouveau matériel. Les constructeurs, de leur côté, font leur possible pour se tenir à la loi de Moore afin d'entretenir la boucle vertueuse (et introduisent suffisamment de nouveautés dans le hardware). Ainsi tout nouvel ordinateur appelle l'achat de nouveaux logiciels. La multiplication des périphériques, utilisant des protocoles (logiciel) et des connecteurs (matériel) nouveaux toutes les quelques années, complète la nasse. La clef de voûte est, comme toujours, idéologique : après trois ans un ordinateur n'est pas considéré comme « vieux » ou ayant moins de fonctionnalités, mais comme « obsolète. » Les mots sont importants. Avec le temps, bien entendu, les consommateurs se sont adaptés et s'efforcent toujours d'acheter simultanément l'ordinateur, les périphériques et les logiciels. La pression d'évolution reste toutefois importante grâce aux logiciels professionnels, aux anti-virus et aux logiciels d'entertainment (de jeu, principalement).

Ce plan de marche induit/traduit une logique qui commande la place des principaux acteurs durant cette période.

Le principal acteur de la période précédente, le constructeur d'ordinateurs, s'effacera progressivement pour céder la place, d'un côté aux constructeurs de composants, en particulier les « fondeurs » de processeurs, et de l'autre aux concepteurs de logiciels, en particulier les « éditeurs » d'applications. En schématisant et en nous limitant aux plus grands, « Big blue » IBM abandonne son leadership à Intel et à Microsoft (« big green »). Dans les années 1980, la production électronique passe des États-unis à l'Asie, au Japon en particulier.

Dans le domaine du matériel, du fait de l'augmentation de la puissance des puces, les gros systèmes perdent la plupart de leurs applications : à partir de 1974, il devient moins coûteux d'utiliser de petites machines, éventuellement en grand nombre, plutôt que les super-ordinateurs de la période précédente. C'est l'inversion de la « loi » de Grosh. Les mini- puis les micro-ordinateurs s'imposent et conquièrent toujours plus de segments de marché. Dans le même temps la recherche informatique se développe et s'installe dans le paysage scientifique.
La première souris en 1963


Du côté des logiciels, pour assurer une certaine forme de rente, les éditeurs doivent courir l'innovation. Il ne s'agit pas seulement de rendre les logiciels plus performants, mais aussi de les rendre plus « conviviaux », d'augmenter le nombre des fonctionnalités (bien au-delà de l'usage de la plupart des utilisateurs), puis, dans les années 1990, de jouer sur des effets de mode, sur le look des logiciels (et pour Apple des matériels). C'est donc une période extrêmement propice à l'innovation logicielle. Les interfaces Homme-machine (IHM), en particulier, feront des progrès considérables durant cette période. La souris telle que nous la connaissons est développée au cours des années 1960. Elle se répand à partir de 1981 grâce au système Xerox Star puis, surtout au Macintosh (1984). C'est également le Xerox Parc qui développera l'affichage graphique avec fenêtres (GUI), repris et développé ensuite par les principaux systèmes d'exploitation.

Durant toute cette période, la grande majorité des ordinateurs produits ont une architecture de type « compatible PC » (et sa descendance, définie principalement par Intel). Il y a, bien entendu, des alternatives, mais elles représentent des volumes de vente extrêmement faible en regard du courant principal. Ce courant bénéficie de quelques améliorations ponctuelles du hardware, mais il y a, au fond, assez peu de changements. Nous reviendrons ultérieurement sur la principale, le multiprocessing, qui se développera au cours des années 1990 et 2000. Il est nécessaire de d'abord évoquer le développement des réseaux. Mais tout d'abord évoquons rapidement l'évolution du logiciel durant cette période. La suprématie du logiciel et des périphériques Dans la mesure où l'immense majorité des ordinateurs vendus durant cette période relèvent de la même architecture, et même assez précisément puisqu'ils respectent souvent les versions successives du « compatible PC » défini par IBM, puis de l'architecture i386 (et successeurs) définie par Intel, toutes respectant une certaine compatibilité ascendante, le hardware, de l'unité centrale en tout cas, n'a que peu de marge d'évolution. La créativité et l'innovation investiront donc un peu le domaine des périphériques et surtout celui du logiciel (software), qui connaîtra une évolution considérable durant l'ère de la loi de Moore, comparable à celle qu'a connu le hardware durant la période précédente. Périphériques et logiciels prennent progressivement le pas sur le matériel à la fois comme moteur de l'évolution technique et comme source principale de valeur ajoutée. Dans les deux cas, il s'agit d'étendre les services rendus par l'ordinateur, au point d'ailleurs parfois de créer de nouvelles machines qui ne sont plus reconnues comme des ordinateurs par leurs utilisateurs.

L'évolution du logiciel était peu significative et surtout peu séparable de l'évolution du matériel lui-même durant les premières générations, celui-ci étant largement assimilé à de la documentation technique, fournie avec le matériel. Elle devient déterminante à partir des années 1970, au point que David Fayon parle même d'« ère du logiciel » pour désigner une période proche de celle que nous appelons « ère de la loi de Moore ». Cette histoire nécessiterait à elle seule un cours au moins aussi détaillé que celui-ci. Nous nous limiterons, ici, à quelques éléments d'appréciation de l'évolution en remontant un peu en amont de l'ère de la loi de Moore.

Émergence et spécialisation des systèmes d'exploitation

À l'époque des calculateurs électroniques et des premiers ordinateurs on ne peut pas réellement parler de programmation ; il serait plus exact de parler d'une configuration de la machine, comme pour les machines de Turing. Pour autant l'architecture de von Neumann amorce un processus durable : les programmes peuvent désormais être enregistrés en mémoire puis sur des mémoires de masse. Ils peuvent donc gagner en complexité, progressivement. Les premiers programmes sont des programmations de la machine : ils décrivent séquentiellement les opérations qu'elle doit effectuer. Il s'expriment d'abord en langage machine puis seront ensuite rendus plus lisibles à l'aide de langages de description de programmes en langage machine : les langages « assembleurs ». Dans les années 1950 et au début des années 1960 les ordinateurs étaient si chers qui fallait les faire travailler en permanence. C'est l'origine des dispositifs de partage de temps (time sharing, 1961) et des systèmes multitâches (1958) puis multiutilisateurs : le moment de réflexion d'un utilisateur peut être le temps de calcul d'un autre. Ces méthodes permettront la mise en place des premiers grands systèmes partagés de banque et de réservation aérienne.

Avec l'augmentation en complexité des ordinateurs (années 1970-1980) et surtout l'apparition des périphériques, en particulier de stockage, il devient nécessaire de disposer de logiciels de plus en plus spécialisés : firmware, systèmes d'exploitation, applications. Le firmware s'occupe des fonctions matérielles les plus élémentaires et de l'amorçage du système (c'est le BIOS des PC). Le système d'exploitation gère les périphériques (au début guère plus que l'affichage en mode texte, le clavier et les disques) et l'exécution des applications. Les applications sont au service de l'utilisateur. Plus tard (années 1990-2000), les fonctions se spécialiseront encore, le système d'exploitation, en particulier, se décomposant en de nombreuses sous-unités œuvrant de concert : noyau, pilotes, HAL, gestionnaire de fenêtres et d'affichage, bibliothèques diverses, serveurs de données etc.

Gérard Verroust évoquant les années 1980 : « À cette époque les systèmes n’avaient ni la capacité ni la nécessité d’utiliser les systèmes d’exploitation pour mini et grands ordinateurs. Les premiers systèmes d’exploitation appelés moniteurs offraient seulement des fonctionnalités très basiques, et étaient chargés le plus souvent depuis de la mémoire morte. CP/M fut l’un des pionniers en matière de système d’exploitation installé sur un disque (et non sur mémoire morte). Ce système d’exploitation influença largement la conception de PC-DOS. Ce dernier, choisi par IBM comme système d’exploitation pour ses premiers PC, fit de Microsoft l’une des compagnies les plus rentables au monde. Les principales alternatives durant les années 1980 sur le marché des systèmes d’exploitation furent Mac OS en 1984, AmigaOS et Atari en 1985 et OS/2 en 1987. » Les années 1990 voient l'extension de la norme Unix et de systèmes de conception proche : linux (1991), WinNT (1993), MacOS 9 (1999) puis MacOS X (2001). La décennie 2000 voit l'explosion des OS “embarqués” (dont les netbooks et autres iPod). De même que les mini-ordinateurs dépassèrent en nombre puis en usage les gros systèmes, puis que les micro-ordinateurs dépassèrent les mini-, aujourd'hui l'informatique embarquée (téléphones, tablettes, nanos, netbooks, électroménager…) dépasse (largement) la micro-informatique.

Multiplication des langages de programmation

Si les firmwares restent longtemps, et encore maintenant, programmés en assembleur, les systèmes d'exploitation et les applications réclamaient des méthodes plus élaborées de programmation.

Le premier vrai langage de programmation effectivement utilisé est le FORTRAN (FORmula TRANslation) mis au point de 1953 à 1957. Il s'agit d'un langage impératif, c'est-à-dire d'une succession d'instructions. D'autres langages seront développés pour répondre à des besoins particulier. Le FORTRAN était destiné principalement au calcul scientifique (il est encore marginalement utilisé, malgré la faiblesse de sa syntaxe). Le COBOL (COmmon Business Oriented Language), créé en 1959, est encore utilisé en gestion. L'Intelligence Artificielle, un secteur de la recherche informatique, utilisera abondamment le LISP (1958), langage de programmation fonctionnelle, dans les années 1970-1980, puis le PROLOG (1972), langage de programmation logique, pour la construction de systèmes experts. Pour les bases de données on conçu un langage de description, de manipulation et de contrôle, le SQL (1970).

À côté de ces langages spécialisés, les programmeurs et les théoriciens avaient besoin de langages généralistes. C'est à cette fin que fut créé ALGOL (1958), dont dériva le Pascal (et ses nombreux dérivés : Turbo Pascal, Delphi...). Pour gagner encore en généricité et en commodité est créé en 1963 le langage de haut niveau BASIC, explicitement dédié aux débutants : Beginner's All-purpose Symbolic Instruction Code. Lui aussi eut une riche descendance, dont le Visual Basic, le VBscript et VB.Net de Microsoft.

Enfin, avec la montée en complexité des programmes, il devenait de plus en plus pénible de traiter et de nommer différemment des procédures similaires du seul fait qu'elles s'appliquaient à des objets différents. On inventa donc, à partir de la recherche en Intelligence Artificielle, des langages capables de définir des procédures ou des classes d'objets de façon abstraite, c'était la programmation orientée objet. Aujourd'hui les principaux grands langages de programmation généralistes ont évolué et permettent une programmation objet.

Parmi tous ces langages une famille occupe une place à part par l'influence qu'elle aura sur Internet, les logiciels libres, puis le web. Le C est créé au début des année 1970 de concert avec le système d'exploitation Unix par Dennis Ritchie et Ken Thompson au sein des laboratoires Bell. Unix (1969) était une forme de réaction aux systèmes d'exploitation extrêmement complexes et lourds de l'époque et en particulier Multics. Il était conçu pour fonctionner sur les petits systèmes (mini-ordinateurs) qui commençaient à se répandre à l'époque. Le C visait un objectif nouveau à l'époque de portabilité. Il deviendra C++ (1985) en acquerrant la programmation objet. Du C++ dérivera une version épurée, Java (1995), pour porter encore plus loin la portabilité et permettre une utilisation comme langage interprété. De Java découlera une simplification, Javascript (1995). Enfin PHP est extrêmement proche, dans son esprit et sa syntaxe, de cette famille de langages. Aujourd'hui, pour la programmation web côté serveur, Java domine largement les grosses applications et PHP les petites. Pour la programmation web côté client Javascript est le standard de fait. Dans l'absolu Java occupe la première place des langages, C la seconde et C++ la troisième.

Parmi les éléments les plus déterminants de la révolution industrielle (milieu 18e siècle-milieu 20e siècle) figure probablement les principes de division du travail, non seulement au sens social (répartition entre catégories, classes ou castes) ou au sens économique (qui culmine avec le taylorisme), mais également au sens technique avec la normalisation des pièces détachées. Il en va de même en informatique : une part toujours plus grande du travail des différents logiciels consiste en tâches qui ne lui sont pas spécifiques et qui peuvent donc être standardisées et rédigées une fois pour toute. À l'époque de FORTRAN cette idée est encore extrêmement rudimentaire : le langage permet simplement de définir des sous-programmes. Peu à peu cette notion se formalisera et les “bouts” de programmes, que l'on appelle « procédures » ou « fonctions », se regrouperont (à partir de la fin des années 1950) en ensembles appelés « bibliothèques. » Ces bibliothèques sont intimement liées, dans un premier temps, à un langage et à un système d'exploitation. Par exemple les opérations de manipulation de fichiers ou de communications entre processus, sont très génériques et n'ont pas à relever de chaque application en propre : il est beaucoup plus efficace de disposer de procédures standardisées regroupées en bibliothèques standards. Plus généralement, l'utilisation de telles bibliothèques permet de mettre en oeuvre les principes informatiques (théorisés) de modularité (separation of concerns) et d'encapsulation (information hiding). Ces principes seront considérablement développés et rendus rigoureux par la programmation orientée objet. Aujourd'hui on appelle « framework » un ensemble cohérent de bibliothèques (voire une seule, dans certains discours commerciaux).

Extension à de nouveaux usagers

Les applications de grande diffusion apparaissent relativement tard dans l'histoire de l'informatique. Le marché étant d'abord occupé par des programmes conçus spécifiquement pour un besoin local. Le premier tableur, Visicalc, est commercialisé en 1979. Aujourd'hui encore les applications destinées au grand public semblent peu nombreuses et dans la plupart des registres, un ou deux acteurs s'accaparent l'essentiel des parts de marché. Ces application constituent, toutefois, un marché considérable et exercent, jusqu'aux années 2000, une influence considérable sur le reste de la production.

Jusqu'aux années 1960, les ordinateurs sont, pour l'essentiel, des machines dédiées à un usage particulier et donc sont au services d'usagers spécifiques et formés, qui peuvent s'adapter à l'ordinateur. À partir des années 1960, avec l'apparition des mini-ordinateurs, on voit le début du généralisme, qui sera considérablement amplifié dans les années 1980, avec le nouveau marché des ordinateurs personnels (PC). En 1960, Joseph Licklider écrit La symbiose Homme-machine : l'interface Homme-machine (IHM) devient un élément des systèmes et applications. En 1963, Ivan Sutherland crée la première interface graphique (GUI) pour le logiciel de CAO sketchpad. En 1968, Douglas Engelbart présente au public souris et fenêtres. De 1971 à 1977, le centre de recherche Xerox PARC développera de nombreux dispositifs qui équiperont, peu à peu, l'ensemble de l'informatique grand public, jusqu'aux années 2000 : l'ordinateur personnel, le modèle WIMP (fenêtres, icones, menus et pointeur) et la métaphore du bureau, la souris, le réseau local ethernet, l'imprimante laser et le traitement de texte WYSIWYG (what you see is what you get, 1974) qui sera popularisé par Apple à partir de 1983. La plupart des ordinateurs personnels adopteront un environnement de travail qui suivra les mêmes principes : X window (1984), Macintosh (1984), Windows 1.0 (1985). Tout cela permettra l'apparition et l'extension rapide de la bureautique durant les années 1980. Après une maturation rapide de ces logiciels, on s'intéressera, durant les années 1990, à l'aspect, aussi bien des documents que des applications elles-mêmes. D'une part, on verra apparaître les premiers logiciels de publication et de communication imprimée et à l'écran ; d'autre part, les éditeurs, en particulier Apple, attachera une importance de plus en plus marquée au look et au design des logiciels.

Du fait de l'extension considérable de l'informatique des années 1980 et le renouvellement rapide des logiciels, apparaissent, dans les années 1990, les premiers phénomènes dits de « pourrissement des bits ». La plupart des applications enregistrent leurs données dans des formats qui leur sont spécifiques, formats qui varient également, pour un même logiciel, d'une génération à la suivante. De ce fait les données ne sont parfois plus lisibles ou plus utilisables en pratique après seulement quelques années. Autre difficulté : l'impossibilité de transmettre des données d'un utilisateur à un autre — ce qui devient de plus en plus gênant avec le développement des communications numérisées, des consolidations et des croisements de données. Quelques informaticiens prennent conscience de ces difficultés dès les années 1980, mais la question ne devient vraiment reconnue, en particulier des décideurs, qu'au cours des années 1990. Elles ont conduit à plusieurs types de réponses, principalement : les logiciels libres, les sources ouvertes (open-source) et les exigences d'interopérabilité. Ces difficultés ont été particulièrement mises en lumière à l'occasion des grandes manoeuvres contre le « bug de l'an 2000. » Elles ont conduit un certain nombre d'États et d'entreprises, au cours des années 2000, à mettre en œuvre des plans d'interopérabilité et de conservation de données.
Richard Stallman en conférence lors de la fête de l'Humanité 2014


En 1983, Richard Stallman lançait un appel aux hackers pour la création d'un unix libre : le projet GNU. Linux, commencé en 1991, permet de donner à ce projet toute sa maturité. À l'époque, le mot « libre » (« free ») ne renvoie pas tant à la gratuité qu'à l'absence de secret : ce mot vient de la tradition du mouvement des droits civiques des années 1960 et 1970. GNU/linux ne connaîtra qu'un succès d'estime sur les ordinateurs proprement dit, mais il se développera en revanche considérablement sur les dispositifs embarqués qui s'étendent considérablement au cours des années 2000 : « boxes » d'accès à Internet, settop boxes et autres dispositifs mobiles, en particulier ordiphones et tablettes sous la forme du système Android.

Au cours des années 2000, la puissance des ordinateurs devient considérable, il devient possible à de nombreux ordinateurs de traiter le son et la vidéo, et même de synthétiser des images de scènes complexe (« réalité virtuelle ») en temps réel. Les jeux vidéos prennent une importance considérable durant cette période, tant en terme de temps de jeu, d'influence culturelle, que de marché (dépassant, au début des années 2010 l'industrie cinématographique). Les années 2000 voient également se développer les logiciels et interfaces web. Nous y reviendrons plus loin. Internet, «réseau galactique» Les légendes du réseau

On confond souvent Internet avec le web, employant un mot pour l'autre. Il s'agit, en fait, de deux choses tout à fait différentes. Internet est un réseau de télécommunication informatique, une infrastructure donc. Par lui transitent le courrier électronique, les messageries instantanées, les jeux en ligne et de nombreux services de transfert de fichiers et de publication de documents. Le web n'est que l'un de ces services (aujourd'hui c'est le support de la plupart des systèmes d'information en ligne).

Par l'importance qu'il a pris dans notre vie, Internet devait relever du mythe. Selon la légende qui entoure sa naissance, Internet serait étatsunien, militaire et indestructible. Comme dans tout mythe, il y un peu de vrai et beaucoup de faux. Nous verrons cela en détail dans cette section, mais résumons cela en quelques mots.

Internet est-il étatsunien ? D'un point de vue historique, il est vrai que les prémices de ce qui sera Internet apparaissent aux États-unis ; pour autant le travail de pionnier sur les réseaux à commutation de paquets n'est pas l'exclusivité de ce pays. On ne retient souvent qu'ARPAnet comme ancêtre d'Internet ; en réalité de nombreux autres projets indépendants contribuèrent à l'évolution vers Internet. L'histoire est souvent écrite par les vainqueur... N'oublions pas les autres acteurs. D'un point de vue technique, Internet est une coalition de nombreux réseaux indépendants relevant de grands opérateurs. Il n'appartient donc à aucun pays en particulier. Pour autant, un certain nombre d'organismes responsables de sa mise en oeuvre ont leur siège aux États-unis ou dépendent plus ou moins directement d'institutions de ce pays.

Internet est-il d'origine militaire ? L'ordinateur était sans conteste un fruit de la Second Guerre mondiale. Sans les occasions données par la guerre (et directement par l'armée) à des hommes remarquables, l'ordinateur aurait peut-être encore dû attendre 20 à 30 ans. On lit souvent qu'Internet est né comme réseau de défense américain. En réalité, contrairement à cette « légende tenace et sulfureuse », Internet n'a pas été conçu comme réseau de communication militaire ni comme réseau de commande d'engins ou autre application offensive ou défensive. Il naît, certes, de recherches commandités par la DARPA (Defense Advanced Research Projects Agency, Agence des Projets de Recherche Avancés du ministère (américain) de la défense). La DARPA, alors ARPA, a été constituée en 1958 comme une réponse au lancement de Spoutnik, en plein contexte de guerre froide : il s'agissait de soutenir des projets technologiques de pointe pouvant induire des développements militaires ou ayant, de manière générale, une portée stratégique. Il ne s'agit toutefois pas directement de recherche militaire. De plus ARPANet est un parmi de nombreux autres projets financés par la recherche publique ou privée aux États-unis et dans d'autres pays.

Internet est-il indestructible ? Cette idée est un des nombreux avatars du « dieu des victoires ». La légende est la suivante : si une bombe atomique touchait un nœud du réseau, les données perdues dans l'explosion seraient retransmises et les suivantes transmises par d'autres voies. Il est possible qu'effectivement les concepteurs d'ARPANet aient eu cela à l'esprit - n'oublions pas le contexte de la Guerre froide - et il est vrai que la commutation de paquets permet de contourner la défaillance de certains nœuds, pour une raison ou une autre. Il reste, toutefois, que cette image très romantique est loin de la réalité d'Internet. Dans la réalité le risque principal n'est pas celui d'une bombe atomique - les risques sont plutôt légaux, commerciaux et surtout logiciels. De ce point de vue, il faut reconnaître que la conception très décentralisée d'Internet le rend effectivement très difficile à contrôler.

La « matrice », nom de ce réseau des réseaux donné par le premier livre d'histoire à son sujet, s'appuie, en revanche sur un fonds culturel et idéologique beaucoup plus bienveillant. Les réseaux et les liens entre ressources sont anticipés dès 1945 par Vannevar Bush dans un article sur un hypothétique memory expander, « Memex ». La première vision d'un réseau de télécommunication, c'est-à-dire d'interactions sociales, est une série de notes par Joseph Licklider dès 1962 sur un « réseau galactique ». Il anticipe déjà des bibliothèques du futur diffusant le savoir à l'aide d'ordinateurs en réseau. De fait, l'utopie universitaire imprimera sa marque sur les premières conceptions d'Internet. Les premiers concepteurs de celui-ci sont principalement des jeunes diplômés et étudiants, qui s'organisent « de façon coopérative et égalitaire ». Les comptes-rendus de réunion s'appellent des RFC (« request for comment »), dispositif ouvert. Ce milieu est celui de la science, où la compétence l'emporte largement sur la hiérarchie, « l'échange et la discussion, au détriment des propositions autoritaires ». Le climat est anti-autoritaire et anti-conformiste : c'est celui des universités de la côte Ouest à la fin des années 1960. « On créa ainsi une communauté de chercheurs en réseau qui croyait profondément que la collaboration a plus d'efficacité que la compétition entre les chercheurs ».

Autre idéologie forte, plutôt présente dans le monde politique : les autoroutes de l'information. Au départ, le projet, essentiellement politique et industriel, n'a rien à voir avec Internet ; il vise à créer aux États-unis des réseaux de diffusion de programmes d'entertainment (télévision, principalement). C'est d'ailleurs, assez largement un échec, notamment parce que les grands acteurs promeuvent chacun leur système et n'arrivent pas, finalement à se mettre d'accord. On oubliera assez vite cet échec, et c'est Internet qui sera ensuite présenté comme étant le réseau des autoroutes de l'information.

L'histoire commence par l'invention de la commutation de paquets qui mènera à de nombreux réseaux. Elle se poursuit par l'intégration de ces réseaux en un unique réseau mondial, Internet. Les services pourront ensuite se développer de façon fulgurante.

Une interconnexion des réseaux

Le principe technique du protocole Internet (IP : Internet protocol) est de router les paquets. Cette approche des communications informatiques, la commutation de paquets, est élaborée et défendue en 1961 par Leonard Kleinrock (1934-). Il publie le premier livre sur la question en 1964. À partir de là l'idée se répand largement et donnera lieu à de nombreuses recherches puis mises en œuvre, pendant environ deux décennies. Parmi celles-ci citons la première expérience, conduite en 1965, ARPANet, l'ancêtre officiel d'Internet, Cyclades, en France, Usenet, basé sur le protocole UUCP intégré à Unix, et Bitnet, qui reliait les gros serveurs académiques au niveau mondial. À la même époque le Xerox PARC développe Ethernet.

En 1957 Spoutnik est le premier satellite artificiel de la Terre et en 1958, les États-unis constituent l'ARPA pour rattrapper leur retard technologique apparent et prendre une avance décisive, enracinant définitivement l'idéologie du « dieu des victoires. » En 1962 Licklider, le père du « réseau galactique » est le premier directeur du département informatique de l'ARPA. Il sait convaincre son successeur et Larry Roberts (1937-) qui, en 1966, prend la tête de l'équipe qui conçoit ARPANet (publié en 1967), au départ conçu comme un système de messagerie résistant aux défaillances. En septembre 1969 est établi le premier lien. Fin 1969, ARPANet relie quatre ordinateurs : à l'Université de Californie à Los Angeles (UCLA), à BBN (société qui travaille sur les protocoles), à l'Université de Californie à Santa Barbara et à l'Université de l'Utah. ARPANet est destiné à relier des centres de recherche scientifique. Il s'agit donc d'abord d'un outil de recherche scientifique (et technologique), ce qu'il restera encore de façon dominante pendant un quart de siècle.

Comme d'autres réseaux similaires se développaient au cours des années 1970, il devint nécessaire de penser leur interconnexion.

La quasi-totalité des réseaux qui se développent durant les années 1970 et 1980, y compris ARPANet (mais à l'exception de Bitnet et Usenet), sont développés par et pour certaines communautés scientifiques. Il n'y avait donc guère de raisons qu'ils fussent compatibles. Ils ne le furent donc pas, même au sein d'un même pays. Par ailleurs, plusieurs éditeurs de logiciels développaient leurs propres protocoles spécifiques. Toutefois, la recherche scientifique est mondiale et, comme pour le courrier papier, la messagerie électronique ne prend tout son sens qu'en étant globalement interconnectée. En effet, l'intérêt d'un réseau humain pour un individu est proportionnel au nombre d'autres individus qui en font déjà partie. C'est ce que Christian Huitema (un des pères de l'Internet français) appelle poétiquement l'effet de famille. Bien sûr s'ajoute l'intérêt strictement économique de l'effet d'échelle (très important dans ce cas, les coûts fixes étant très élevés). Ces deux effets combinés font que « connectivity is it's own reward » (la connectivité se récompense elle-même).

Dès 1973, Vint (Vinton) Cerf (1943-) et Bob (Robert) Kahn (1938-) proposent d'interconnecter ces différents types de réseaux en imposant un protocole, un langage, commun. Ce protocole devra respecter les prérequis suivants, définis par Kahn :

Chaque réseau est autonome et ne doit pas demander de changement pour pouvoir se connecter à Internet.

Les communications respectent un principe de meilleur effort (best effort) : si un paquet n'atteint pas sa destination, il doit être rapidement réémis.

Les réseaux sont connectés par des boîtes noires (que l'on appellera plus tard passerelles ou routeurs) simples, qui ne conservent aucune mémoire des paquets en transit.

Il n'y a pas de contrôle global du niveau opérationnel (il est décentralisé).

Le protocole pourra donc être compris directement par certains nœuds mais sera d'abord destiné aux passerelles entre réseaux. Ainsi Internet (inter-net = inter-réseau ou réseau international, en anglais), est d'abord un réseau de réseaux. On parle aussi de coalition de réseaux ou (de réseau) d'interconnexion de réseaux, ou encore de fédération de réseaux. Les premières versions d'IP, le protocole Internet, sont publiées en 1978 et les premières mises en place datent de 1981. Aujourd'hui les différents réseaux hétéroclites sont devenus extrêmement homogènes et utilisent le plus souvent les mêmes protocoles sur toute la planète. Les différents réseaux qui composent aujourd'hui Internet sont donc plus des divisions institutionnelles et commerciales que techniques.

Le passage d'ARPANet sur TCP/IP en 1983 permet de le séparer en un réseau destiné aux activités de défense, MILNET, et en un réseau qui deviendra/s'intégrera à Internet.

Un réseau « galactique »

Joseph Licklider (1915-1990) imagine dès 1957 un réseau de « centres de pensée » constitués d'ordinateurs contenant de gigantesques bibliothèques, sur tous les sujets, et des consoles permettant de tout visualiser à distance. Dans La symbiose Homme-machine (1958), il imagine un avenir où le répétitif serait pour la machine, laissant les œuvres de créativité à l'Homme. En 1962, il rédige une série de notes (dont une publiée en avril 1963) où il imagine un réseau « galactique » ou « intergalactique » permettant d'accéder à tous les programmes et à leurs données « de partout ». Cette note fut extrêmement fructueuse, mais, attention à l'anachronisme : en 1962 il n'y a qu'une dizaine de milliers d'ordinateurs environ (valant pour la plupart plusieurs centaines de milliers de dollars). À l'époque, « partout » désigne essentiellement ces ordinateurs là ; mais la voie est tracée.

Il y a déjà des formes de communication électronique au milieu des années 1960, avant la messagerie Internet. Cette dernière apparaît formellement en 1971, comme un service accessoire, qui n'est pas mis en avant par les promoteurs officiels du réseau. Le « @ » apparaît en 1972 pour le courrier Internet (Ray Tomlinson). En 1973, ce courrier n'est encore qu'informel mais il représente déjà les trois quarts du trafic. Il ne se systématisera que vers la fin des années 1980. Les pièces jointes seront d'abord encodés sous forme de suites de lettres avant d'être réellement jointes d'une façon aisée pour l'utilisateur (MIME, 1992).

Le transfert de fichier (FTP) apparaît, lui aussi en 1971, pour la diffusion de logiciels et de documents scientifiques, principalement. Il deviendra rapidement un dispositif de publication. Ces premiers usages diffuseront largement l'idéal de libre dissémination du savoir quand Internet s'ouvrira au grand public, en particulier quand ils seront relayés par le web naissant. La convergence numérique La convergence numérique est déjà en germe dans la première architecture de von Neumann. Comme le dit Nicholas Negroponte, fondateur du Medialab, « un bit est un bit » : tous les documents reposent sur le même principe de codage numérique de l'information sous forme de fichiers qui peuvent être stockés par les mêmes types de mémoires (de masse ou centrales). Programme ou donnée, vidéo ou texte, carte vectorielle ou photo, tout est égal pour l'ordinateur. Ainsi, elles peuvent, potentiellement, être traitées par les mêmes machines, stockées dans les mêmes mémoires, échangées sur les mêmes réseaux. Des données de toutes natures peuvent également se trouver groupées dans un même document et ce, de façon relativement aisée ; c'est le principe du multimédia. Cette coexistence de plusieurs types de codage de l'information à l'intérieur d'un même document était d'emblée inévitable, même s'il fallut le temps d'une génération humaine pour qu'il émerge.

Ce phénomène de convergence ne concerne pas que les documents. Il a également gagné, progressivement tous les matériels. Les premières consoles de jeu, dans les années 1970 et 1980, rapprochent ordinateur et télévision (Pong, le premier jeu video sur console, sort en 1972). Le Minitel et les serveurs télématiques, dans les années 1980, sont un rapprochement de l'ordinateur et du téléphone. Dans les années 1980 et 1990, le disque vidéo, puis le CD et le DVD, qui fournissent les premiers supports numériques grand public au son et à la vidéo sont eux un rapprochement entre l'ordinateur et la musique et le cinéma-télévision. On arrive ainsi progressivement à des dispositifs tels que les ordiphones (smartphones) qui en un seul artéfact regroupent : téléphone, visiophone, texteur SMS, assistant personnel, ordinateur, visionneuse de films, de musiques, de photos et de textes, récepteur de télévision et radio, navigateur web, etc. Cette évolution touche également les infrastructures puisque les réseaux téléphoniques sont aujourd'hui (presque) intégralement fondus dans les réseaux informatiques. Notons à ce propos, que l'on ne dit plus guère « télé-communication », mais simplement « communication » : l'incidence est prégnante sur nos conceptions de l'espace et du temps elles-mêmes.

Cette convergence n'est pas une simple addition de fonctionnalités, elles permettent aussi des créations hybrides qui mêlent d'emblée images et sons, textes et animations, réalité virtuelle et interaction, etc. Elle occasionne ainsi une nouvelle créativité (le film Tin Toy, des studios Pixar, reçoit un Oscar en 1989). Elle nous force également à repenser les cadres de la création, en particulier concernant « le » droit d'auteur, aujourd'hui encore extrêmement disparate selon les types d'œuvres et de supports. Les œuvres numériques sont comme les idées, telles que les présentait Thomas Jefferson en 1813 : reprendre une idée de quelqu'un ne diminue en rien sa connaissance. Les œuvres numériques, comme les idées, se copient à l'infini, sans diminution de qualité. Ceci pose d'ailleurs un autre problème pour le droit de copie et pour le droit d'auteurs, pensés à une époque où la copie, plutôt que la conception, était l'opération productive de référence.

En prenant un peu de recul on peut voir à l'œuvre un phénomène également présent sur d'autres supports : la transformation d'un moyen de communication en moyen de diffusion, de publication, puis en outil de travail, de production. Pensons à la route : la systématisation des relais de postes ouvre la possibilité des journaux. Pensons à la radio et au développement de la radio-télégraphie durant la première moitié du 20e siècle puis de la radio-téléphonie (à partir de l'époque de la 1re Guerre mondiale), puis de la radio-diffusion (à partir des années 1920 (USA : 1920, France : 1921), dont la TV à partir des années 1930). On retrouve ce type d'évolution pour Internet et les TIC. Durant la seconde moitié du 20e s. : développement de l'ordinateur (à partir des années 1940), puis de la correspondance électronique (à partir des années 1960, dont Internet) puis de la réelle communication numérique (à partir des années 1980, dont le web) puis des outils de travail : ENT, bureaux virtuels, etc. Quelques éléments chronologiques
1947 invention du transistor par John Bardeen, William Shockley et Walter Brattain.
Invention du langage de programmation assembleur, langage de bas niveau.
1954 Création du Fortran, premier langage de programmation de haut niveau à être implémenté sur un ordinateur
1956 IBM sort le premier disque dur l'IBM 350 d'une capacité d'environ 5Mio et d'une masse dépassant la tonne.
1958 Le circuit intégré par Robert Noyce et Jack Kilby.
Le langage Lisp inventé par John McCarthy.
Le langage Algol par un comité de mathématiciens américains et européens, dont John Backus, Peter Naur et Alan Perlis.
1960 Le Bull Gamma 60, premier ordinateur multitâches et l'un des premiers multiprocesseurs
1961 Le premier système à temps partagé, le Compatible Time Sharing System par John McCarthy et Fernando Corbató
1963 La souris par Douglas Engelbart du Stanford Research Institute
Création de Sketchpad le premier logiciel de CAO par Ivan Sutherland
1964 Le PDP-8 de DEC (Digital Equipment Corporation)
Le langage de programmation BASIC
1965 La loi de Moore de Gordon Moore
1967 La disquette commercialisée par IBM
1969 Fin 1969, Arpanet comptait quatre nœuds.
Création d'Unix par Kenneth Thompson et Dennis Ritchie
1971 23 ordinateurs sont reliés sur Arpanet
Intel 4004, le premier microprocesseur de Marcian Hoff
1972 Création du langage C par Kenneth Thompson et Dennis Ritchie
1973 Développement et commercialisation du Micral, premier micro-ordinateur, par la firme française R2E.
Développement des principes de base d'Ethernet au centre de recherche Xerox de Palo Alto
1974 Loi informatique et liberté aux États-Unis
Scandale du projet de fichier SAFARI en France qui conduira à la création de la CNIL
Sortie du 8080 d'Intel, microprocesseur 8 bits.
Création du système d'exploitation CP/M par Gary Kildall.
1975 Fondation de Microsoft par Bill Gates et Paul Allen
1976 Fondation d'Apple et lancement de l'Apple I par Steve Jobs et Steve Wozniak
1977 Invention de la cryptographie à clef publique et du système RSA par Ronald L. Rivest, Adi Shamir et Leonard M. Adleman
Chess devient le premier programme informatique à remporter un tournoi d'échecs majeur.
1980 Invention du Compact Disc
1981 Adam Osborne lance le « portable » Osborne 1 livré avec une collection complète de logiciels
L'IBM PC
Microsoft : MS-DOS
1982 Définition du protocole TCP/IP et du mot Internet
Le superordinateur Cray X-MP atteint 400 MFLOPS
Fondation de Sun Microsystems
Le Commodore 64
1983 Création du langage C++ et du Turbo Pascal
1984 1 000 ordinateurs sont connectés à Internet.
Thomson : sortie du MO5
Amstrad : sortie du CPC 464
Apple : sortie du Macintosh et de Mac OS
FSF : création de la Free Software Fondation, du projet GNU et de la licence GPL
1985 La norme IEEE 754 de William Kahan voit le jour
Le premier Amiga Commodore : l'Amiga 1000 avec AmigaOS 1.0
L'Atari ST
Microsoft : Windows 1.0
Le CD-ROM
1986 environ 2 300 machines raccordées à Internet
1987 10 000 ordinateurs sont connectés à Internet
OS/2 de IBM
Microsoft : Windows 2.0
1989 100 000 ordinateurs sont connectés à Internet
Invention du World Wide Web par Tim Berners-Lee
1990 Début d'Internet TCP/IP grand public
1991 Tim Berners-Lee et Robert Cailliau créent le protocole Internet HTTP (World Wide Web)
Linux : premier noyau Linux 0.01
1992 1 000 000 d'ordinateurs sont connectés à Internet
Microsoft : MS Windows 3.1 et 3.11
1993 Lancement du Pentium d'Intel
Internet : Mosaic, le premier navigateur web
1994 Apple : lancement du Power Macintosh à base de processeur PowerPC
Internet : création de Netscape
Création du World Wide Web Consortium (W3C) par Tim Berners-Lee
1995 Le DVD Microsoft : sortie de Windows 95
Linux : sortie du noyau Linux 1.2
Création du langage de programmation Java
1996 10 000 000 d'ordinateurs sont connectés à Internet
Microsoft : naissance de Microsoft Internet Explorer
Linux : sortie du noyau Linux 2.0
Première version de la norme USB
Debian 1.1 (Buzz, OS GNU/Linux)
1997 Première victoire d'un programme informatique contre un grand maître d'échec, Deep Blue bat Garry Kasparov (2 victoires, 3 nulles et 1 défaite)
Apple : sortie de Mac OS 8
1998 Apple : lancement de l'iMac
Microsoft : sortie de Windows 98
Google : fondation de Google
2001 Linux : sortie du noyau Linux 2.4
Microsoft : sortie de Windows XP
Apple : sortie de Mac OS X 10.0 Guépard (mars) puis Mac OS X 10.1 Puma (septembre)
Fondation de Wikipédia par Jimmy Wales
2002 OpenOffice.org (suite bureautique libre) sort en version 1.
2004 Mozilla : sortie de la première version stable de Mozilla Firefox 1.0
Facebook : création de Facebook
Ubuntu 4.10 première version de l'OS GNU/Linux
2007 Microsoft : sortie de Windows Vista
Apple : lancement de l'Iphone
Google : lancement d'Android
2009 Oracle Corporation achète Sun Microsystems.
Microsoft : sortie de Windows 7
La virtualisation de serveurs et du stockage se développe.
2010 Intel sort des processeurs gravés en 32 nm.
Sortie de l'iPad d'Apple
Développement de l'informatique en nuage ou Cloud computing
2011 Microsoft : rachat de Skype par Microsoft
Mozilla : sortie de Mozilla Firefox 4.0, rapidement suivi par Mozilla Firefox 5.0, 6.0, 7.0, 8.0 et 9.0
The Document Foundation publie la première version de LibreOffice : la 3.3.0. L'année se termine avec la 3.4.4.
Linux : sortie du noyau Linux 3.0
Les ventes de smartphones dépassent celles de PC.
2012 Première mémoire non volatile expérimentale combinant de l'ADN de saumon et du nano-argent
Apple : sortie de Mac OS X 10.8 Mountain Lion Microsoft : sortie de Windows 8 (le 26 octobre), avec une nouvelle interface graphique destinée à rapprocher le monde de la tablette tactile et celui du PC de bureau
Apparition des premières solutions d'hyper-convergence
2013 Lancement du moteur de recherche QWANT, concurrent européen de Google, soutenu par des investisseurs français et allemands.
Apple : sortie de Mac OS X 10.9 Mavericks
Microsoft : sortie de Windows 8.1
The Document Foundation publie LibreOffice 4.0.
Intel sort des processeurs Haswell.
Déploiement des solutions de type Big data
Le nombre d'utilisateurs connectés à internet depuis un smartphone dépasse celui des utilisateurs connectés via un PC.
Les révélations d'Edward Snowden changent la perception du risque de cyber-espionnage.
Les ventes de tablettes dépassent celles des PC.
Le secteur informatique est globalement en décroissance en France.
2014 IBM sort des processeurs POWER8.
Premier processeur fonctionnel à base de graphène
Fin de support de Windows XP
Émergence du marché des objets connectés
Le nombre de sites web dans le monde dépasse le milliard
Le temps d'utilisation des applications sur mobiles a dépassé l'utilisation d'internet sur ordinateur.
Novembre 2014 : piratage de Sony Pictures Entertainment
53 % des courriels sont lus sur un téléphone ou une tablette
2015 Montée en puissance des darknets
Essor du Software defined networking et du Deep learning
Juillet 2015 : sortie de Microsoft Windows 10
Les utilisateurs de smartphone ont en moyenne 41 applications installées sur leur appareil.
Les recherches Google sur mobile ont dépassé celles faites à partir d'un ordinateur classique
2016 L'impression 3D est en forte expansion dans l'industrie
Les disques SSD remplacent les disques traditionnels ; sortie des premiers disques SSD 16 To
Retard de la sortie de processeurs Intel gravés en 10 nm
développement de l'internet des objets : 5,5 millions de nouveaux objets se connectent au réseau chaque jour
En mars 2016 le navigateur Google Chrome dépasse Internet Explorer en parts de marché
2017 Essor de la technologie blockchain
Arrivée de la technologie mémoire 3D XPoint unifiant le stockage et la mémoire traditionnelle
Le programme alphaGo bat le champion du monde du jeu de Go