
Comment procéder? Une piste émergente est l’ethical data mining.
Source: www.paristechreview.com
Big data : piste émergente : l’ethical data mining
un article à lire !!
extrait :
La modélisation éthique des données complexes
Entendons-nous bien. Il ne s’agit pas de freiner l’essor des Big Data, encore moins de revenir en arrière, mais de faire en sorte que nos vies ne soient pas manœuvrées par une rationalité aveugle ou soumise aux seuls impératifs du marketing. L’enjeu est au contraire de construire une modélisation à la fois compatible avec une exigence de sens et avec le potentiel immense des Big Data.
Or il est parfaitement possible d’imaginer une modélisation éthique des données complexes, et ce pour une raison qui tient au fonctionnement même du datamining. Car les algorithmes inductifs qui sont au cœur des Big Data sont animés par une logique étonnamment proche de la « sagesse pratique » qui est au cœur de l’éthique.
Dans sa vie quotidienne, l’être humain perçoit des données, interprète des informations, fait des liens avec d’autres connaissances déjà mémorisées et acquiert ainsi des compétences qu’il est capable de mettre en œuvre ensuite de manière répétée. Il acquiert ainsi une « sagesse pratique », qui peut être formalisée et raffinée dans une « éthique », c’est-à-dire un art du comportement.
Les algorithmes de datamining sont animés par une logique très proche de celle mobilisée par les humains dans leur comportement quotidien : une logique qui n’est pas déductive, mais inductive. Les algorithmes des Big Data n’ont pas été conçus pour faire des démonstrations qui produiraient des résultats incontestables, prouvés par a + b. Ils travaillent à partir de données partielles, incomplètes, peu structurées, des données qui ne permettent pas ce type de raisonnement. Leur fonction est plutôt de repérer des répétitions, d’identifier des schémas, des modèles de comportement : par exemple, sur Amazon, ils repèrent que le lecteur de tel livre a des chances de s’intéresser à tel autre livre. Ils perçoivent des données, les agrègent en informations, interprètent ces informations, font des liens avec d’autres connaissances déjà mémorisées et proposent ainsi des choix réduits, orientés vers une finalité pratique. Cette finalité est au croisement de notre intérêt et de celui de l’organisation qui possède les systèmes d’information, selon des configurations variables qui vont d’une quasi-neutralité à une orientation forcée vers tel ou tel bien, tel ou tel chemin, tel ou tel choix.
Le moment-clé, chez les humains comme chez les algorithmes, est celui de la simplification, c’est-à-dire de la transformation d’un ensemble complexe de données brutes en une information pratique. Cette simplification vise notamment, dans le cas des technologies de l’information, à favoriser une entropie très basse, c’est-à-dire un degré de désordre quasiment nul. Pour reprendre l’exemple d’Amazon, cela revient à ne pas proposer à un amateur de science fiction un ouvrage d’ethnologie. C’est ce moment crucial de la simplification qu’une modélisation éthique des données complexes doit tenter d’accompagner et de nourrir de sens.
Deux principes s’imposent. Tout d’abord, l’ « information » dont nous parlons doit être comprise dans un cadre systémique qui la relie à l’action via la connaissance. L’information est agrégée en connaissance, mais cette connaissance est une connaissance pratique, finalisée dans l’action. C’est moins un savoir qu’un savoir-utiliser.
Le second principe est issu directement de la théorie de l’information. On pourrait le formuler ainsi : à une description de processus on préfèrera une description d’état. L’enjeu de l’éthique, comme celui des Big Data, est le passage d’un état de savoirs complexes, désorganisés et flous vers un état de savoirs simples, structurés et orientés vers une fin.
See on Scoop.it – Ethique et Toc !
WordPress:
J’aime chargement…
Filed under: Santé | Leave a comment »