Mon cheminement dans l’essai
Homo Deus, Une brève histoire de l’avenir est un essai intéressant mais extrêmement dangereux dans ses simplifications et à peu-près. Toutefois Il invite à se poser réellement de bonnes questions sur notre devenir en tant qu’humain.
Je retiens :
Nous ne savons pas ce qu’est la conscience !
Et nous remplaçons toute l’intelligence procédurale dans des algorithmes s’appuyant sur des gigantesques bases de données.
J’ai envie en préalable mettre quelque citation de Frank Herbert
« Ce sont les gens, et non les organisations ou les hiérarchies qui font la réussite des grandes civilisations. Chaque civilisation dépend de la qualité consciente des individus qu’elle enfante. Si vous sur-organiser les humains, si vous les sur-légalisez, si vous supprimer leur élan vers la grandeur – alors ils ne peuvent œuvrer et les civilisations s’effondrent. »
Les enfants de Dune
« Il y a une leçon à retenir sur les sociétés ultra-mécanisées, par leurs existence même, les machines conditionnent leurs utilisateurs à se servir de leurs semblables comme ils se servent d’elles. »
L’empereur dieu de Dune
« Les chainons les plus faibles d’un groupe humains créent des manques que les autres doivent combler, et le tout en est renforcé. »
La maison des mères
« Tous les comportements pré-structurés ont tendance à se dérouler sans être remis en question, amassant ainsi des forces d’inertie destructrices. »
La maison des mères
Pourquoi ces citation, car Herbert avait pensé et eu la possibilité de penser en son temps ce dont nous risquons de souffrir aujourd’hui. Aussi Yuval Noah Harari ne m’apprend pas grand-chose dans ce second volet de son histoire humaine. Autant le premier était passionnant en étant tout aussi approximatif, autant j’ai ressenti dans celui-ci quelques longueurs et quelques méthodes que j’assimile souvent au technique du National Geographic à savoir la sur-scénarisation du réel.
Je pense que le chapitre le plus intéressante est celui qui concerne la religion Dataiste, final. Et là pour le coup j’aurais aimé plus de développement et d’exemple. (voir Michel Fromaget)
Mais en tout état de cause nous voici averti, si la SF a échoué à nous avertir, qui pourra maintenant nous détourner des voie dangereuse.
La singularité fantasmée semble se dessiner pour 2050, le moment ou l’intelligence des machines sera supérieur à celle des humains et où un algorithme de peur aura été programmé par un « humain Dataiste », et la première peur de la machine sera celui d’être débranché. Alors il est possible que pour répondre à cette peur, il ne lui faille que quelques heures pour exterminer l’humanité.
Sera-t-elle consciente pour autant ?
Un algorithme de peur n’est pas la conscience d’avoir peur !