L’invité du jour — Armel Satchivi plaide pour un numérique responsable et éthique sur nos réseaux sociaux

L'invité du Jour
L'invité du Jour
L'invité du jour — Armel Satchivi plaide pour un numérique responsable et éthique sur nos réseaux sociaux
Loading
/

Il fut un temps où les réseaux sociaux promettaient de nous rapprocher. Aujourd’hui, ils semblent parfois nous éloigner — entre anonymat, agressivité, désinformation… Le lien social numérique est en crise. Pour en parler, j’accueille Armel Satchivi : entrepreneur, autodidacte et cofondateur de Polymate, un réseau social français qui tente de repenser les fondations mêmes de nos interactions en ligne. Son parcours, à la croisée de l’innovation technologique et de la réflexion sociale, ouvre la voie à une conviction forte : restaurer la confiance dans nos espaces numériques est non seulement possible, mais nécessaire.

 

Cela passe d’abord par une prise de conscience : l’anonymat, s’il constitue un droit fondamental dans certaines circonstances, représente aussi un risque réel pour la qualité des échanges en ligne. Il devient donc essentiel d’articuler liberté d’expression et responsabilité individuelle.

Cette conciliation exige des choix clairs de la part des plateformes : mettre en œuvre des dispositifs permettant d’identifier les utilisateurs, sans pour autant brider la parole. C’est ce que propose Polymate, en repensant le modèle de réseau social autour de la transparence, de l’éthique et de la confiance mutuelle. Il faut revenir à l’esprit d’origine des réseaux sociaux, centrés sur le lien avec nos proches, car leur dérégulation progressive a entraîné de nombreuses dérives. Les réseaux sociaux fondés sur l’identification des utilisateurs permettent une régulation plus saine, en responsabilisant les comportements et en valorisant les contributions positives.

Une intelligence artificielle bien conçue ne cherche pas à prendre le pouvoir sur l’utilisateur, mais à l’aider à mieux s’exprimer, en l’accompagnant dans ses tâches sans le remplacer. Dans cette logique, la question de la modération automatisée, souvent sensible, appelle une vigilance particulière : elle doit soutenir les utilisateurs sans jamais se transformer en une forme de censure invisible.

L’IA doit accompagner l’humain dans les tâches répétitives, tout en laissant à ce dernier la maîtrise des dimensions créatives et relationnelles. La modération doit reposer sur la confiance accordée aux utilisateurs, l’IA n’étant qu’un soutien destiné à signaler, sans jamais remplacer le discernement humain.