Computational Thinking und Philosophie (3).

resume

Um die derzeitige Vernehmlassung zur Weiterentwicklung der Gymnasialmaturität nicht auf eine umfangreiche, aber einfache Erhebung der Meinungen aller "Akteure" nach einem vorgegebenen Bewertungsraster zu reduzieren, möchten wir eine echte Debatte führen, insbesondere über die Leitprinzipien.

Cédric Pillet, Philosophielehrer am Collège des Creusets in Sitten und Präsident der Walliser Gesellschaft für Philosophie, schlägt hier eine andere Sichtweise auf die Artikel in den letzten beiden Ausgaben des Gymnasium Helveticum zum sogenannten Computational Thinking vor.

Sie ist überall. Doch niemand spricht über sie (3).

« PENSEE COMPUTATIONNELLE » ET FORMATION GYMNASIALE

 

Les spécialistes l’affirment dans les colonnes des deux derniers numéros du Gymnasium Helveticum: l’avenir de l’éducation gymnasiale se fera en intégrant la « pensée computationnelle »[1]. Pour nous adapter à un monde culturel et économique accessible via nos ordinateurs de poche que nous continuons à appeler « téléphones », l’informatique va prendre plus de place dans le cursus des étudiants. Nos cerveaux humains, qui comprendront les cerveaux artificiels, maintiendront leur compétitivité face aux « machines qui apprennent ». L’enseignement traditionnel doit s’adapter, puisque le savoir est à portée de tous les doigts connectés, et se concentrer sur les compétences cognitives (dites « transversales »).

INFLUENCES DIVERSES DE L'INTELLIGENCE ARTIFICIELLE

Les « machines qui apprennent » se servent de données, récoltées et sélectionnées, et nous proposent des résultats obtenus grâce à un algorithme: elles vont par exemple compléter la phrase que vous avez commencé à écrire sur votre moteur de recherche. Cette recherche va ensuite vous conduire sur certains sites, proposés toujours par la machine. Le robot peut également acheter et vendre des actions (« trading bot »), intervenir sur les réseaux sociaux (« chat bot »), indiquer à la police où effectuer sa prochaine patrouille, etc. L’intelligence artificielle prend des décisions et nous fait des propositions qui influencent les nôtres, quotidiennement, avec des conséquences économiques, sociales, politiques.

L’IA, via les « chat bots », influence aussi directement l’opinion publique, pour le meilleur et aussi pour le pire: situations de monopoles, « fake news », « computational propaganda » (utilisée massivement par Daesh, l’organisation terroriste d’idéologie salafiste pour son recrutement, mais aussi par l’IRA (« Internet Research Agency »), basée à St-Pétersbourg, pour influencer les élections américaines), désinformation, consensus construit, théories du complot et radicalisation. En résumé: propagation du chaos et de la haine, le tout à très bon marché et dans des proportions jamais connues auparavant.

PROBLEMES LIES A L'INTELLIGENCE ARTIFICIELLE

Comment identifier ces stratégies de manipulation? Quelle est la valeur de ce savoir (ou de ses informations) à notre portée et de ces recommandations données par l’IA? Comment les utiliser?

Répondre à ces questions n’est pas une mince affaire: nous devons être capable de comprendre la démarche de l’IA et d’évaluer ses résultats. Il s’agit de questionner le concept même d’ « intelligence artificielle ».

 

Si les résultats peuvent être problématiques et, au fond, peu « intelligents », qu’est-ce qu’un résultat « intelligent »?  Mais la question est beaucoup trop large et doit être précisée: peut-on établir les critères d’efficacité de la démarche de la machine programmée? Si oui, lesquels? Pourquoi? L’IA sait-elle ce qu’est la vérité? Est-ce que ses résultats sont pertinents? Pour répondre à quel type de question(s) et atteindre quel(s) objectif(s)? Peut-on différencier ce résultat de celui qui serait issu d’une recherche historique, par exemple? Peut-on donner la même réponse pour une recherche de type scientifique? Quelles sont les valeurs fondamentales sur lesquelles se fondent une démocratie qui seraient menacées dans l’hypothèse d’une mise en place non réfléchie des « bots » (lesquels sont déjà parmi nous, comme on l’a déjà dit)? D’ailleurs, comment différencier et articuler ces questions liées à l’IA, les questions historiques, scientifiques, et les questions des valeurs?

Nous nous retrouvons au coeur de problèmes logiques, de questionnement épistémologiques, avec des enjeux éthiques.

 Ces questions peuvent être évoquées de manière transversale; nous avons aussi besoin d’enseignant.e.s compétent.e.s pour y répondre de manière précise et argumentée et ainsi donner sens aux innombrables informations (le philosophe Hartmut Rosa parle de « bruit » qui nous rend « sourds » au sens du monde) dont nous pouvons disposer dans de multiples domaines et maintenant aussi grâce à nos « machines intelligentes ».

COMMENT RESOUDRE CES DIFFICULTES

Si les « fake news » et la polarisation reposent sur la manipulation des émotions et des bricolages cognitifs rudimentaires (des croyances), alors nous ne pouvons pas résoudre ce genre de difficulté par l’information, la mise en doute et la tolérance superficielle des opinions: les questions soulevées aux Etats-Unis après  les élections de 2016, les auditions de Mark Zuckerberg par le Sénat américain[2] et les événements de janvier 2021 à Washington, entre autres, indiquent clairement que cette position est intenable. Nous ne pouvons nous laver les mains: les manipulations favorisent au mieux une tolérance factice, prélude à toutes sortes de violences.

Nos étudiant.e.s ont besoin de formateurs spécialisés, solidement formés et capables d’enseigner à questionner les pratiques et les théories, à saisir les enjeux (par exemple, comment conjuguer liberté d’expression et prise de position concernant les algorithmes? L’IA peut-elle s’auto-réguler? Qu’est-ce qu’implique la prise de décision fondée sur des indications statistiques?); à identifier les visions du monde implicites; à différencier les énoncés (scientifiques, historiques, statistiques, etc.) et à articuler les différents résultats pour leur donner sens (plutôt que de se trouver face à un chaos d’informations disparates et indifférenciées); à argumenter et à identifier les erreurs, en appliquant des critères spécifiques et pertinents[3]; à prendre des positions éclairées au niveau social et éthique.

 

L’écoute, le respect et la réflexion, le « savoir être et vivre ensemble » ne suffiront pas. Une position de refus, technophobe, n’aidera pas non plus.

 

Les compétences nécessaires pour répondre à ces questions sont travaillées de manière approfondie dans le cursus académique qui en fait notamment l’un des objets d’enseignement du cours de philosophie. Les gymnasiens pourront apprendre avec ces spécialistes formés dans les universités à manier ces instruments d’éthique créative ou, pour le dire en termes plus contemporains, ces outils de la durabilité. Pour assumer leurs responsabilités en tant que citoyens, ils apprendront à penser la pensée computationnelle.

Cédric Pillet

Président de la Société Valaisanne de Philosophie

[1] GH 5/2020, p. 11f. / GH 1/2021 p.10f

[2] Interrogatoires liés au scandale « Cambridge Analytica » et la diffusion de propagande durant les élections de 2016.  Les observateurs ont remarqué que les questions n’ont pas permis d’aller assez loin, en grande partie à cause du manque de connaissance des sénateurs dans le domaine technologique, c’est-à-dire surtout dans leur compréhension de l’IA. Face à des experts, les réponses du PDG de Facebook étaient moins satisfaisantes.

[3] GH 2/2020, pp. 5, 6f-7f.