Des personnalités de l’industrie de l’intelligence artificielle ont appelé à une pause temporaire dans la formation des systèmes d’IA, invoquant la sécurité de l’humanité. Un groupe comprenant des noms influents tels que Elon Musk, Steve Wozniak et des chercheurs de DeepMind ont signé une lettre ouverte mettant en garde contre les risques incontrôlables associés à la course au développement de l’IA.
La lettre appelle à une suspension temporaire de la formation des systèmes d’IA dépassant une certaine capacité pendant au moins six mois, afin de permettre une évaluation approfondie des risques et de travailler sur des solutions pour garantir la sécurité de l’humanité.
Cette demande de pause est motivée par les inquiétudes grandissantes quant à la capacité des systèmes d’IA à causer des dommages catastrophiques à l’humanité si ces systèmes étaient mal conçus ou utilisés de manière malveillante.
Alors que les progrès de l’IA ont été rapides ces dernières années, cette lettre ouverte appelle à un pas en arrière pour permettre une réflexion plus approfondie sur les implications potentielles de cette technologie en constante évolution.
Les signataires de la lettre reconnaissent l’importance de l’IA pour le progrès technologique et la résolution de problèmes complexes, mais ils estiment également que des mesures de précaution sont nécessaires pour garantir que ces systèmes sont développés et utilisés de manière responsable et en toute sécurité.
Cette lettre ouverte est un appel à l’action pour les dirigeants de l’industrie de l’IA et les décideurs politiques pour qu’ils prennent des mesures visant à garantir que l’IA est développée de manière responsable et à minimiser les risques associés à son utilisation.