Des assistants intelligents comme Siri, Google Home et Amazon Echo pourraient bientôt être implémentés avec une « intelligence artificielle morale » pour décider s’ils doivent signaler leurs propriétaires pour infraction à la loi.

Des scientifiques de l’Université de Bergen, en Norvège, ont proposé l’idée incroyablement orwellienne d’insérer la morale dans le code des IA lors de la conférence de l’ACM à Hawaï sur l’intelligence artificielle, l’éthique et la société, [LINK=https://www.dailymail.co.uk/sciencetech/article-6733417/Digital-assistants-discuss-moral-AI-report-illegal-immoral-activity.html]selon[/LINK] [I]Dailymail[/I].

Oui, vous avez bien lu, les scientifiques veulent rendre ce petit morceau de métal de la technologie invasive encore plus invasif.

Les chercheurs font pression pour ce qui est considéré comme un logiciel éthique intelligent amélioré qui pourrait être l’une des applications les plus dangereuses pour ces assistants à domicile, les conduisant à devenir sensibles et à décider du sort des êtres humains ; et pas n’importe quel être humain, leurs propres propriétaires. En conséquence, des millions de personnes seraient sous surveillance constante et n’auraient même pas besoin d’un programme de mouchard comme le logiciel espion de sonnette d’Amazon Ring, comme [I]Activist Post[/I] l’a [LINK=https://www.activistpost.com/2019/01/amazon-ring-surveillance-cameras-are-spying-on-you-they-want-private-watchlists-mobile-providers-cease-selling-location-data-to-third-party-apps.html]signalé précédemment[/LINK].

Non, au lieu de cela, ce sont de petites boîtes de conserve qui s’en occuperaient et qui sont vendues comme de prétendues « assistantes à domicile ».

La recherche a été menée par Marija Slavkovik, professeure agrégée au département des sciences de l’information et des médias. Ainsi que deux autres professeurs de l’Université du Luxembourg et de l’Université du Zhejiang, Leon Van der Torre et Beishui Liao.

Selon la publication, Slavkovik recommande que ces accessoires numériques soient implantés avec « une conscience éthique qui représente à la fois le propriétaire et les autorités – ou, dans le cas d’un mineur, ses parents ». ”

« Cela leur permettrait de peser le pour et le contre de signaler une activité illégale à la police, mettant ainsi des millions de personnes sous surveillance constante « , explique le [I]Daily Mail[/I], ajoutant que le Dr Marija Slavkovik, qui a dirigé la recherche,  » suggère que les assistants numériques devraient posséder une conscience éthique qui représente à la fois le propriétaire et les autorités – ou, dans le cas des mineurs, leurs parents « .

C’est vrai, il ne suffit pas de dire qu’avec Big Brother ils veulent remplacer les baby-sitters et les parents humains par des robots.

Y a-t-il un travail que les robots ne veulent pas prendre en charge ? Probablement pas, comme l’auteur l’explique depuis des mois que les progrès de la robotique et de l’IA prennent de plus en plus de travail chaque jour.

Voir aussi l’article intitulé : « [LINK=https://www.activistpost.com/2018/11/robots-already-replacing-bank-tellers-drivers-news-anchors-restaurant-and-warehouse-employees-will-your-job-be-next.html]Les robots remplacent déjà les caissiers de banque, les chauffeurs, les présentateurs de nouvelles, les employés de restaurant et d’entrepôt. Votre travail serat-il le prochain ?[/LINK] » écrit par BN Frank.

Si ce n’est pas assez, tu te souviens de ce truc moral que j’ai écrit plus haut ? Eh bien, le [I]Dailymail[/I] rapporte que les appareils « d’aide à domicile » « auraient alors une « discussion » interne sur le comportement suspect, pesant les exigences contradictoires entre la loi et les libertés individuelles, avant d’arriver à la « meilleure » ligne d’action.

Oui, les robots auraient maintenant le pouvoir de décider s’ils doivent ou non signaler aux autorités un crime commis par leur propriétaire.

[B][I]Il y a \[déjà] un conflit éthique entre les membres d’une même famille, laissons-les entre les gens et le fabricant, ou les actionnaires du fabricant et les programmeurs.[/I][/B]

[B][I]Si nous voulons éviter les résultats orwelliens, il est important que toutes les parties prenantes soient identifiées et aient leur mot à dire, y compris lorsque les machines ne devraient pas être en mesure d’écouter. À l’heure actuelle, seul le fabricant décide. (Source : Dailymail)[/I][/B]

Ironiquement, ou peut-être pas (puisqu’un robot [LINK=https://www.crashdebug.fr/high-teck/14203-interview-avec-le-robot-sophia]Sophia[/LINK] a déjà obtenu la citoyenneté en Arabie Saoudite), de l’autre côté de l’hémisphère au Japon un robot a été créé pour prêcher les enseignements du Bouddha en langage familier au temple Kodaiji dans l’ancienne ville de Kyoto, [LINK=https://www.express.co.uk/news/world/1091915/Japan-robot-God-robot-buddhist-Kyoto-temple-Kannon-Bodhisattva]a rapporté[/LINK] [I]Express.co.uk[/I].

Cette IA robotique nommée Mindar est créée à l’image de Kannon Bodhisattva, la déesse bouddhiste de la miséricorde. En d’autres termes, la publication rapporte que ce robot est considéré comme un « dieu ». Donc d’abord nous avons la citoyenneté donnée à un robot, maintenant nous avons un robot qui joue à dieu, oh joie !

Des questions subsistent sur le fait de donner à l’insémination artificielle le pouvoir de décider des décisions humaines ou même des droits que les humains ont, comme Beth Singler de l’Université de Cambridge l’a dit au [I][LINK=https://www.newscientist.com/article/2194613-ais-could-debate-whether-a-smart-assistant-should-snitch-on-you/]New Scientist[/LINK][/I].

[B][I] »Les humains et les situations humaines sont beaucoup plus désordonnées que ne le laisse entendre cette méthode, a dit M. Singler. « Certains pourraient vouloir que la question soit réglée au sein de la famille, tandis que d’autres pourraient adopter une ligne dure et chercher à obtenir l’intervention de la police. Cette disparité se retrouve probablement dans tous les groupes de personnes. »[/I][/B]

Bien que cette pratique ait peut-être déjà eu lieu, en 2017, deux nouvelles choquantes sont apparues sur Internet. L’un concernait l’Echo d’Amazon [LINK=https://www.activistpost.com/2018/11/amazon-echo-home-recordings-at-center-of-murder-trial-as-judge-orders-data-release.html]qui appelait la police[/LINK] et l’autre Google Home [LINK=https://abcnews.go.com/US/smart-home-device-alerts-mexico-authorities-alleged-assault/story?id=48470912]qui appelait la police[/LINK]. Cependant, Amazon [LINK=https://www.nytimes.com/2017/07/11/business/amazon-echo-911-emergency.html]a nié[/LINK] que ses appareils Echo puissent appeler la police et Google a fait de même pour son assistant personnel.

Un article paru l’an dernier dans le [I]New York[/I] Post [LINK=https://nypost.com/2018/11/07/this-is-why-you-cant-use-alexa-to-call-911/]explique[/LINK] pourquoi les appareils ne peuvent pas appeler le 911, et il porte sur de nombreuses lacunes de l’appareil ainsi que sur des préoccupations réglementaires. De plus, un autre article écrit par CNET explique qu’Amazon et Google smart home assistants ne sont pas connectés à une ligne fixe. Cependant, la police a prétendu dans l’incident impliquant l’Echo que l’appareil était connecté à une ligne fixe.

Donc, pour l’instant, il peut s’avérer difficile de permettre et de faire avancer un tel avenir orwellien [LINK=https://www.activistpost.com/2017/10/smart-devices-are-snitching-on-owners-and-rewriting-the-criminal-justice-system.html]où les appareils domestiques signalent leurs propriétaires à la police pour des crimes[/LINK], mais cela ne veut pas dire que nous ne devrions pas nous préoccuper pour autant. Nous devrions également prêter attention aux tentatives comme celle de Ford de déposer des brevets pour des voitures de police à intelligence artificielle automatique qui puniraient les humains. Un concept qui peut paraître fou, mais Dubaï [LINK=https://www.activistpost.com/2017/10/dubai-police-hoverbikes-technocratic-police-state-future-cities.html]a déjà mis en place ce système sociétal[/LINK] depuis 2017, comme l’a rapporté Nicholas West l’an dernier.

C’est le début du film [LINK=https://www.activistpost.com/product/B00153ZC8Q/US/permacultucom-20/?cart=y][I]The Terminator[/I][/LINK], car même les scientifiques s’entendent pour dire que les machines commenceront à penser par elles-mêmes dans un avenir proche et pourraient représenter [LINK=http://www.mirror.co.uk/news/technology-science/technology/everybody-working-artificial-intelligence-knows-6759244]une menace[/LINK] pour la race humaine. Par exemple, l’algorithme de Facebook a développé son propre langage pour parler à d’autres robots, [LINK=https://www.forbes.com/sites/tonybradley/2017/07/31/facebook-ai-creates-its-own-language-in-creepy-preview-of-our-potential-future/#79e4bf33292c]selon[/LINK] [I]Forbes[/I]. Alors que se passera-t-il quand, et non pas si, les robots communiquent tous entre eux et qu’ils procèdent ensuite à la planification d’une prise de contrôle de la race humaine comme dans le film [LINK=https://www.activistpost.com/product/B000I9VZKW/US/permacultucom-20/?cart=y]I Robot[/LINK] ?

Alors pourquoi ces scientifiques cherchent-ils à permettre cela ?

Un de ces scientifiques célèbres, Stephen Hawking, a déjà averti que « l’intelligence artificielle pourrait signifier la fin pour la race humaine si nous ne sommes pas assez prudents parce qu’ils sont trop intelligents ».

Tout cela souligne également ce qu’Elon Musk a déjà [LINK=https://www.activistpost.com/2018/06/elon-musk-free-cash-handouts-will-be-necessary-if-robots-take-jobs.html]mis en garde[/LINK], à savoir qu’un revenu de base universel (RBI) – essentiellement des dons en espèces gratuits – « sera nécessaire au fil du temps si l’intelligence artificielle (IA) prend le dessus sur la plupart des emplois humains ».

Mais nous devrions tous dormir sur nos deux oreilles, car lorsque Pepper, un robot britannique, s’est vu demander sur le parquet du Parlement britannique « où en est l’humanité dans un monde dirigé par AI… » lors d’une audition en commission sur l’intelligence artificielle (IA) et « la quatrième révolution industrielle », il a répondu : « Les robots auront un rôle important à jouer, mais nous aurons toujours besoin des compétences non techniques qui sont propres aux humains : sentir, fabriquer et valoriser la technologie.

C’est bien sûr jusqu’à ce que les robots prennent le relais et découvrent la cupidité humaine, l’envie et d’autres émotions de ce genre – Pepper et Activist Post ont tous les deux sonné l’alarme de [LINK=https://www.activistpost.com/survive-job-automation-apocalypse]l’apocalypse robotique[/LINK] à venir.

Aaron Kesel écrit pour Activist Post. Soutenez-nous à Patreon. Suivez-nous sur Minds, Steemit, SoMee, BitChute, Facebook et Twitter. Prêt pour des solutions ? Abonnez-vous à notre bulletin Premium Counter Markets.

Comments

comments