Si la recherche sur l’IA devait produire une intelligence artificielle suffisamment performante, capable de modifier son code de programme et ainsi de se reprogrammer, elle pourrait créer une version améliorée d’elle-même de manière totalement indépendante. Cette version améliorée serait à nouveau plus à même de s’améliorer, ce qui, selon de nombreux chercheurs, conduirait à une « explosion de l’intelligence » dans laquelle l’intelligence artificielle dépasserait l’intelligence humaine et de plus en plus de percées scientifiques seraient réalisées par l’IA plutôt que par les humains.
La première superintelligence artificielle serait donc la dernière invention de l’humanité, car les innovations seraient alors de plus en plus développées par des machines, car les recherches nécessaires à cet effet deviendraient à un moment donné trop complexes pour être comprises, et encore moins mises en œuvre, par les humains.
Cela conduirait à terme à une singularité technologique dans laquelle une IA toujours croissante trouverait sa place dans de plus en plus de domaines de la vie publique et exercerait une influence toujours croissante, dont les implications pour l’avenir de l’humanité après cet événement ne peuvent plus être prises en compte. être prédit serait.
Pensez-vous qu’un tel scénario soit réaliste ? Si oui, quand pensez-vous que la singularité se produira ? Et qu’espérez-vous d’une telle évolution ? Ou êtes-vous même inquiet ?
#Pensezvous #nouvelles #menaces #sécurité #pourraient #émerger #lavenir #partir #technologies #telles #lintelligence #artificielle #les #systèmes #autonomes