CENTRE DE FORMATION/INTELLIGENCE ARTIFICIELLEL'IA DANS TOUS SES ETATSRéf. : IA001

LA FORMATION EN QUELQUES MOTS

La formation en quelques mots

Code :IA001
Accroche commerciale :

L’intelligence artificielle (IA) s’invite dans tous les secteurs, y compris ceux à forte dimension humaine comme la santé, le social ou le médico-social.
Ses promesses sont nombreuses, mais ses risques le sont tout autant. Cette formation vise à éclairer les professionnels de santé sur les fondements, les usages concrets et les défis éthiques, juridiques et opérationnels posés par l’IA. Elle leur permettra de mieux comprendre les enjeux actuels, les évolutions réglementaires (AI Act, RGPD, etc.) et les conditions pour une utilisation responsable et éclairée.

Le catalogue 2026 de la FEHAP est en ligne ! Retrouvez toutes les formations et les dates sur notre nouveau site : https://formation2026.fehap.fr

Objectifs : - Comprendre les notions clés liées à l’intelligence artificielle (IA, conscience, décision, etc.)
- S’approprier les principes de régulation (AI Act, RGPD) et les notions de responsabilité liées à l’IA
- Repérer les risques (biais, discriminations, opacité) et les bonnes pratiques pour un usage éthique de l’IA
- Identifier les principaux cas d’usage et leurs apports dans les secteurs sanitaires et médico-sociaux
- S’inspirer de cas d’usages déjà réalisés dans le monde de la santé
Prérequis : • Aucun prérequis technique n’est nécessaire. Une culture générale sur les enjeux du numérique est un plus.
Contenu :

FONDAMENTAUX DE L’INTELLIGENCE ARTIFICIELLE
- Définitions : IA, intelligence naturelle, conscience, décision
- Historique : de la cybernétique aux agents IA génératifs
- Différences fondamentales entre IA et intelligence humaine


ENJEUX ÉTHIQUES, SOCIAUX ET ENVIRONNEMENTAUX
- Impacts culturels et sociétaux de l’IA
- Cas emblématiques de discriminations algorithmiques
- Réflexion sur l’acceptabilité et l’appropriation des outils


RÉGULATION ET RESPONSABILITÉ
- L’AI Act européen : typologie des risques, obligations des acteurs
- Les grands textes : Charte des droits fondamentaux, RGPD, Convention européenne des droits de l’Homme
- Principes de transparence, proportionnalité, responsabilité
- Régimes juridiques de responsabilité (personnelle, produit, etc.)


CAS D’USAGE DANS LE SECTEUR MEDICO-SOCIAL
- Identifier des signes précoces de dépendance, dénutrition, isolement ou dépression.
- Rompre l’isolement, stimuler la mémoire et les interactions.
- Faciliter la communication avec des usagers souffrant de troubles de la compréhension.
- Réduire le temps passé à la rédaction de comptes rendus, transmissions, dossiers, rapports d’activité.
- Aider à repérer des situations à risque dans les établissements (maltraitance, fugue, chute).


PREMIERS OUTILS À DÉCOUVRIR
- Générateurs de contenu, image, voix, etc.
- Bonnes pratiques de prompt
- Panorama des LLM (ChatGPT, Mistral, Perplexity…)

Pédagogie : Modalités pédagogiques
- Alternance d’apports théoriques et d’illustrations concrètes
- Études de cas et cas d’usage dans le secteur santé/social
- Travaux en sous-groupes et mise en situation
- Interactions permanentes : quiz, sondages, échanges en plénière
Type public : - Directeurs et cadres du secteur social, médicosocial ou sanitaire
- Responsables innovation, qualité ou système d’information
- Référents RGPD ou juridiques
- Toute personne impliquée dans la transformation numérique ou la réflexion stratégique de son établissement.
Méthodes d'évaluation : • Grille d’auto-évaluation des acquis à l’issue de la formation

Sessions de formation

Aucune session disponible.

Demande de devis

Si aucune session ci-dessus ne correspond à vos attentes ou si vous désirez une formation en INTRA, vous pouvez nous faire part de votre besoin en cliquant sur le bouton ci-dessous.