L'ia : lovelace nous avertit. le danger n'est pas dans la machine, mais dans l'homme.
L'intelligence artificielle est en train de repousser les limites du possible, suscitant à la fois fascination et angoisse. Des modèles capables de surpasser l'humain dans le raisonnement, des agents autonomes et la crainte d'une perte de contrôle… Le débat est vif, oscillant entre une promesse de transformation radicale et un sentiment d'impuissance face à un système qui échappe à toute maîtrise.

Un avertissement d'il y a plus d'un siècle
Au cœur de cette agitation, une phrase, prononcée en 1843 par Ada Lovelace, collaboratrice de Charles Babbage, résonne avec une pertinence troublante. Dans ses notes sur la Machine Analytique, elle déclarait que « cet instrument n'a pas la prétention de créer rien de nouveau ». Une observation qui, bien avant l'avènement des chatbots, constitue le fondement d'une réflexion essentielle sur la nature de l'IA.
Lovelace insistait sur le fait que la machine ne peut qu'exécuter les instructions données par l'homme. Elle ne possède pas d'initiative, de créativité intrinsèque. C'est l'ingéniosité humaine qui constitue la source de tout – les données, les objectifs, les règles – et la machine se contente d'amplifier et de combiner des éléments préexistants. Un concept que Jon Hernández, expert espagnol en IA, qualifie d' « IA la plus puissante qui existe ».
Un siècle plus tard, Alan Turing s'est lui-même confronté à cette « objection de Lady Lovelace » dans son ouvrage fondateur, « Computing Machinery and Intelligence ». Il a nuancé cette idée, reconnaissant que les systèmes capables d'apprendre peuvent produire des résultats surprenants, donnant l'illusion d'une origine nouvelle. Mais le débat, loin d'être clos, persiste encore aujourd'hui.
Des chercheurs évoquent désormais la « créativité émergente » pour décrire les moments où les modèles de langage génèrent des combinaisons inattendues, sortant des prévisions de l'équipe de développement. Bien que ces comportements puissent sembler novateurs, ils restent encadrés par l'architecture des données et les fonctions de récompense définies par les concepteurs. Le Centre avancé de défense avec IA, Numant-IA, en est un exemple frappant en Espagne.
L'erreur serait de chercher un danger dans l'IA elle-même. La véritable menace réside dans les décisions des humains qui la créent, les données qu'ils lui fournissent, les contextes dans lesquels elle est déployée et les mécanismes de correction mis en place en cas d'échec. Lovelace, avant l'avènement du transistor, anticipait déjà ce danger. Et, ironiquement, les chatbots comme ChatGPT, Claude ou Gemini confirment sa vision avec une précision troublante. Le secteur, malgré les prouesses informatiques, peine encore à résoudre cette question fondamentale.
