salam
De nombreuses personnalités alertent depuis quelques années sur les dangers que l'intelligence artificielle fait courir au genre humain. Motif : évoluant moins vite, notre intelligence sera un jour dominée par celle des robots.
En décembre 2014, l'astrophysicien britannique Stephen Hawking déclarait à la BBC : "Le développement d'une pleine intelligence artificielle pourrait signifier la fin de l'humanité.
Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés. " Il a vite été rejoint par Elon Musk, fondateur de Tesla Motors, de SpaceX et d'Hyperloop, qui à son tour sème le trouble en affirmant : "L'I.A. est potentiellement plus dangereuse que les armes nucléaires", puis par de nombreuses personnalités.
Faut-il craindre le développement d'une superintelligence qui déciderait d'asservir l'espèce humaine, comme l'a décrit la sagaTerminator ? Pour beaucoup de spécialistes, le scénario est encore éloigné de la réalité. Car malgré ses exploits, l'I.A. n'a laissé place à aucune superintelligence, encore moins à de l'intentionnalité. Les chercheurs évoqueraient plutôt le risque de "mauvaises décisions" prises en cascade par des algorithmes ultra rapides et interconnectés, auxquels nous déléguons de plus en plus de tâches globales : sécurité, logistique, trafic aérien, finance, transport d'énergie, etc.
Un débat sur l'IA est positif
Pourquoi alors le débat a-t-il pris, comme si la menace était technologiquement mûre ? Parce que la crainte est réelle, bien sûr. Pour certains analystes, ce débat est même positif.
L'I.A. pourrait ainsi se faire accepter du grand public et poursuivre son développement.
Mais d'autres craignent que les vrais problèmes soient masqués, comme la mainmise sur l'I.A. de Google ou de Facebook, aussi riches en moyens technologiques qu'avares en informations et obscurs en intentions... Le problème, c'est toujours l'humain derrière les machines.
https://www.science-et-vie.com/ques...S1-1&utm_source=Facebook&link_time=1512107514
De nombreuses personnalités alertent depuis quelques années sur les dangers que l'intelligence artificielle fait courir au genre humain. Motif : évoluant moins vite, notre intelligence sera un jour dominée par celle des robots.
En décembre 2014, l'astrophysicien britannique Stephen Hawking déclarait à la BBC : "Le développement d'une pleine intelligence artificielle pourrait signifier la fin de l'humanité.
Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés. " Il a vite été rejoint par Elon Musk, fondateur de Tesla Motors, de SpaceX et d'Hyperloop, qui à son tour sème le trouble en affirmant : "L'I.A. est potentiellement plus dangereuse que les armes nucléaires", puis par de nombreuses personnalités.
Faut-il craindre le développement d'une superintelligence qui déciderait d'asservir l'espèce humaine, comme l'a décrit la sagaTerminator ? Pour beaucoup de spécialistes, le scénario est encore éloigné de la réalité. Car malgré ses exploits, l'I.A. n'a laissé place à aucune superintelligence, encore moins à de l'intentionnalité. Les chercheurs évoqueraient plutôt le risque de "mauvaises décisions" prises en cascade par des algorithmes ultra rapides et interconnectés, auxquels nous déléguons de plus en plus de tâches globales : sécurité, logistique, trafic aérien, finance, transport d'énergie, etc.
Un débat sur l'IA est positif
Pourquoi alors le débat a-t-il pris, comme si la menace était technologiquement mûre ? Parce que la crainte est réelle, bien sûr. Pour certains analystes, ce débat est même positif.
L'I.A. pourrait ainsi se faire accepter du grand public et poursuivre son développement.
Mais d'autres craignent que les vrais problèmes soient masqués, comme la mainmise sur l'I.A. de Google ou de Facebook, aussi riches en moyens technologiques qu'avares en informations et obscurs en intentions... Le problème, c'est toujours l'humain derrière les machines.
https://www.science-et-vie.com/ques...S1-1&utm_source=Facebook&link_time=1512107514