Curso de AI Risk Management and Security in the Public Sector
Artificial Intelligence (AI) introduce nuevas dimensiones de riesgo operativo, desafíos de gobernanza y exposición a ciberseguridad para las agencias y departamentos gubernamentales.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de TI y gestión de riesgos del sector público con experiencia limitada en IA que desean comprender cómo evaluar, monitorear y proteger sistemas de IA dentro de un contexto gubernamental o regulatorio.
Al finalizar esta formación, los participantes podrán:
- Interpretar conceptos clave de riesgo relacionados con los sistemas de IA, incluyendo sesgo, imprevisibilidad y deriva del modelo.
- Aplicar marcos de gobernanza y auditoría específicos de la IA como el Marco de Gestión de Riesgos de AI NIST (AI RMF) e ISO/IEC 42001.
- Reconocer amenazas de ciberseguridad dirigidas a modelos de IA y pipelines de datos.
- Establecer planes de gestión de riesgos interdepartamentales y alineación de políticas para la implementación de AI.
Formato del Curso
- Conferencia interactiva y discusión sobre casos de uso del sector público.
- Ejercicios de marcos de gobernanza de IA y mapeo de políticas.
- Modelado de amenazas basado en escenarios y evaluación de riesgos.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Programa del Curso
Comprendiendo el Riesgo Específico de IA en Entornos Governmentales
- Cómo el riesgo de IA difiere del riesgo tradicional de TI y datos
- Categorías de riesgo de IA: técnico, operativo, reputacional y ético
- Responsabilidad pública y percepción del riesgo en el gobierno
Marco de Referencia de AI Risk Management
- NIST Marco de Referencia de AI (AI RMF)
- ISO/IEC 42001:2023 — Estándar del Sistema de IA Management
- Otras guías específicas por sector e internacionales (por ejemplo, OECD, UNESCO)
Amenazas a la Seguridad de los Sistemas de AI
- Entradas adversarias, envenenamiento de datos y inversión del modelo
- Exposición de datos de entrenamiento sensibles
- Riesgos de cadena de suministro y modelos de terceros
Governancia, Auditoría y Controles
- Mecanismos humanos en el ciclo y responsabilidad
- AI auditable: documentación, versionamiento e interpretabilidad
- Controles internos, roles de supervisión y puntos de control de cumplimiento
Evaluación del Riesgo y Planificación de Mitigación
- Construcción de registros de riesgos para casos de uso de AI
- Colaboración con equipos de adquisiciones, legales y diseño de servicios
- Realización de evaluaciones pre-despliegue y post-despliegue
Respuesta a Incidentes y Resiliencia del Sector Público
- Respondiendo a incidentes y violaciones relacionadas con AI
- Comunicación con partes interesadas y el público
- Incorporando prácticas de riesgo de AI en los guiones de ciberseguridad
Resumen y Próximos Pasos
Requerimientos
- Experiencia en operaciones de TI, gestión de riesgos, ciberseguridad o cumplimiento dentro de instituciones gubernamentales
- Familiaridad con las prácticas de seguridad organizacional y la entrega de servicios digitales
- No se requiere experiencia técnica previa en sistemas de IA
Publido Objetivo
- Equipos de IT gubernamentales involucrados en servicios digitales e integración de sistemas
- Profesionales de ciberseguridad y riesgos en instituciones públicas
- Persönal de auditoría, cumplimiento y gobernanza del sector público
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de AI Risk Management and Security in the Public Sector - Booking
Curso de AI Risk Management and Security in the Public Sector - Enquiry
AI Risk Management and Security in the Public Sector - Consultas
Consultas
Próximos cursos
Cursos Relacionados
AI Governance, Compliance, and Security for Enterprise Leaders
14 HorasEsta formación en vivo dirigida por un instructor en Panama (en línea o presencial) está destinada a líderes empresariales de nivel intermedio que desean comprender cómo gobernar y asegurar sistemas de IA responsablemente y de conformidad con los marcos globales emergentes como el Reglamento UE sobre IA, GDPR, ISO/IEC 42001 y la Orden Ejecutiva de EE. UU. sobre IA.
Al finalizar esta formación, los participantes podrán:
- Comprender los riesgos legales, éticos y regulatorios del uso de IA en diferentes departamentos.
- Interpretar y aplicar marcos principales de gobernanza de IA (Reglamento UE sobre IA, Marco de Gestión de Riesgos de AI de NIST, ISO/IEC 42001).
- Establecer políticas de seguridad, auditoría y supervisión para la implementación de IA en la empresa.
- Desarrollar directrices de adquisición y uso para sistemas de IA de terceros y internos.
AI Policy and Regulation for Governments
7 HorasLa política y regulación de IA es un área en constante evolución que afecta directamente cómo los gobiernos desarrollan, adoptan y supervisan sistemas de inteligencia artificial.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a profesionales legales y de cumplimiento del sector público con exposición limitada previa a las tecnologías de IA que desean comprender los desarrollos regulatorios, marcos éticos y consideraciones políticas para la implementación responsable de AI.
Al finalizar esta formación, los participantes podrán:
- Interpretar componentes clave de las regulaciones relacionadas con la IA como el Reglamento UE sobre IA y GDPR.
- Evaluarse desarrollos políticos nacionales e internacionales (Canadá, EE. UU., OCDE, etc.).
- Evaluar los riesgos legales y éticos en la adquisición y uso de AI.
- Contribuir a la gobernanza, supervisión y alineación interinstitucional de la IA.
Formato del Curso
- Conferencia interactiva y análisis de casos legales.
- Comparaciones regulatorias y ejercicios de mapeo de políticas.
- Discusión grupal basada en escenarios.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para arreglarlo.
AI-Enhanced Public Service Delivery
7 HorasArtificial Intelligence (AI) is increasingly being used to improve the efficiency, accessibility, and responsiveness of public service delivery in areas such as taxation, healthcare, immigration, and social programs.
This instructor-led, live training (online or onsite) is aimed at public service delivery professionals with limited experience in AI who wish to explore real-world applications, automation strategies, and planning considerations for incorporating AI into front-line government services.
By the end of this training, participants will be able to:
- Identify areas in their department where AI can improve public service operations.
- Understand automation tools and AI-driven decision support systems.
- Explore use cases in forecasting, language access, and citizen assistance.
- Assess ethical, operational, and citizen trust factors in AI-enabled services.
Format of the Course
- Interactive lecture with real-life examples.
- Public sector use case walkthroughs and group discussion.
- Strategy planning exercises adapted to participants' departments.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Tools for Administrative Efficiency (ChatGPT, Copilot, Gemini)
7 HorasHerramientas de IA como ChatGPT, Copilot y Gemini están transformando los flujos de trabajo administrativos al ayudar a las equipos a redactar contenido, programar reuniones, responder correos electrónicos y automatizar tareas rutinarias.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales administrativos del sector público con poco o ningún conocimiento previo de IA que desean mejorar la productividad diaria mediante el uso práctico de asistentes de IA y herramientas de automatización.
Al finalizar esta formación, los participantes podrán:
- Comprender cómo las herramientas de IA ayudan con tareas administrativas comunes.
- Usar ChatGPT, Copilot y Gemini para generar correos electrónicos, resúmenes y documentos.
- Integrar herramientas de IA con calendarios, listas de tareas y software de oficina.
- Aplicar las mejores prácticas para la redacción de indicaciones y la interpretación de resultados.
Formato del Curso
- Conferencia interactiva y demostraciones guiadas.
- Ejercicios prácticos con tareas administrativas reales.
- Ejercicios personalizables utilizando las herramientas más relevantes para el trabajo diario de los participantes.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Building Secure and Responsible LLM Applications
14 HorasEsta formación en vivo dirigida por un instructor en Panama (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Descripción general de la arquitectura LLM y superficie de ataque
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Filtración de Datos y Riesgos a la Privacidad
- Exposición accidental de datos a través de respuestas
- Vulnerabilidades de PII y uso indebido de memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada por recuperación (RAG)
Filtrado y Protección de Salida LLM
- Uso de Guardrails AI para filtrado y validación de contenido
- Definición de esquemas y restricciones de salida
- Monitoreo y registro de salidas inseguras
Supervisión Humana en el Ciclo (Human-in-the-Loop) y Enfoques de Flujo de Trabajo
- Dónde y cuándo introducir supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y papel de la explicabilidad
Aplicaciones LLM Seguras Design Patterns
- Mínimos privilegios y sandboxing para llamadas a API y agentes
- Límites de velocidad, trottling y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas LLM
- Mantener trazabilidad y control de versiones del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores, arquitectos e instructores de productos intermedios y avanzados que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo inyección de prompts, filtración de datos y salida no filtrada, mientras incorporan controles de seguridad como validación de entrada, supervisión humana en el ciclo (human-in-the-loop) y barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Usar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión humana en el ciclo (human-in-the-loop) en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Requisitos Previos
- Entendimiento de modelos de lenguaje grandes y interfaces basadas en prompts
- Experiencia construyendo aplicaciones LLM usando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Audiencia
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
ChatGPT for Government Use: Communication, Analysis, and Productivity
7 HorasChatGPT es un asistente de IA poderoso que puede apoyar a los profesionales gubernamentales en la redacción, investigación, resumen y automatización de tareas.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada al personal del sector público con experiencia limitada o nula en el uso de herramientas de IA que desean aplicar ChatGPT efectivamente para la comunicación, análisis y productividad administrativa relacionados con el gobierno.
Al finalizar esta formación, los participantes podrán:
- Utilizar ChatGPT para escribir y revisar correos electrónicos, memorandos y informes gubernamentales.
- Resumir documentos de políticas, comentarios públicos o hallazgos de investigación con precisión.
- Diseñar indicaciones efectivas para tareas administrativas y analíticas diarias.
- Aplicar principios básicos de privacidad y cumplimiento cuando se utiliza IA en un contexto del sector público.
Formato del Curso
- Conferencia interactiva y discusión.
- Casos de uso orientados al gobierno en el mundo real.
- Implementación práctica y práctica de redacción de indicaciones.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso basada en los flujos de trabajo o prioridades políticas específicos de su departamento, contáctenos para organizarlo.
Microsoft 365 Copilot for Government Use: Efficiency, Communication, and Insight
7 HorasMicrosoft 365 Copilot es un asistente impulsado por IA integrado en herramientas familiares de Microsoft para mejorar la creación de contenido, automatizar tareas rutinarias y proporcionar insights inteligentes.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a empleados del sector público con experiencia limitada o nula en el uso de herramientas de IA que desean utilizar Microsoft 365 Copilot para mejorar la comunicación, simplificar el trabajo documental y extraer insights más eficientemente de datos y reuniones.
Al finalizar esta formación, los participantes podrán:
- Utilizar Copilot en Word, Excel y Outlook para redactar, analizar e mejorar comunicaciones.
- Automatizar tareas de documentación y resumen repetitivas a través de las aplicaciones de Microsoft 365.
- Generar insights a partir de notas de reuniones, hojas de cálculo y informes escritos.
- Siguir directrices para un uso responsable de Copilot en el contexto del sector público.
Formato del Curso
- Conferencia interactiva y discusión.
- Uso práctico de Microsoft 365 Copilot en escenarios gubernamentales de muestra.
- Ejercicios guiados enfocados en comunicación, informes y productividad en reuniones.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso basada en los flujos de trabajo o herramientas internas de su departamento, por favor contáctenos para organizarlo.
DeepSeek for Government and Policy-Making
14 HorasEste entrenamiento en vivo dirigido por instructores en Panama (en línea o presencial) está dirigido a profesionales gubernamentales y expertos en políticas de nivel avanzado que desean aprovechar DeepSeek para la gobernanza basada en datos y la innovación en políticas.
Al final de esta capacitación, los participantes podrán:
- Utilizar IA DeepSeek para el análisis de políticas y la toma de decisiones estratégicas.
- Automatizar informes gubernamentales y mejorar la transparencia de los datos.
- Aplicar conocimientos impulsados por IA para la innovación del sector público.
- Mejorar la participación de los ciudadanos a través de soluciones potenciadas por IA.
Intermediate Gemini AI for Public Sector Professionals
16 HorasThis instructor-led, live training in Panama (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introduction to AI for Public Sector Leaders
7 HorasArtificial Intelligence (AI) is transforming public sector operations, decision-making, and service delivery worldwide.
This instructor-led, live training (online or onsite) is aimed at public sector leaders with little to no prior background in AI who wish to understand the fundamentals of AI, assess its strategic relevance, and explore how it can be ethically and effectively adopted within government organizations.
By the end of this training, participants will be able to:
- Understand the key concepts and terminology in artificial intelligence.
- Evaluate AI’s opportunities and risks within public sector contexts.
- Explore the ethical and regulatory considerations relevant to AI use in government.
- Develop informed perspectives for AI-related policy, procurement, and strategy.
Format of the Course
- Interactive lecture and discussion.
- Real-world public sector case studies.
- Guided group reflection and policy exercises.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Introduction to AI Security and Risk Management
14 HorasEsta formación en vivo dirigida por un instructor en Panama (en línea o presencial) está destinada a profesionales principiantes de seguridad IT, riesgo y cumplimiento que desean comprender conceptos fundamentales de seguridad AI, vectores de amenaza y marcos globales como NIST AI RMF e ISO/IEC 42001.
Al finalizar esta formación, los participantes podrán:
- Comprender los riesgos de seguridad únicos introducidos por los sistemas AI.
- Identificar vectores de amenaza como ataques adversarios, envenenamiento de datos y inversión de modelo.
- Aplicar modelos de gobernanza fundamentales como el Marco NIST AI Risk Management.
- Alinear el uso de AI con estándares emergentes, directrices de cumplimiento y principios éticos.
Privacy-Preserving Machine Learning
14 HorasThis instructor-led, live training in Panama (online or onsite) is aimed at advanced-level professionals who wish to implement and evaluate techniques such as federated learning, secure multiparty computation, homomorphic encryption, and differential privacy in real-world machine learning pipelines.
By the end of this training, participants will be able to:
- Understand and compare key privacy-preserving techniques in ML.
- Implement federated learning systems using open-source frameworks.
- Apply differential privacy for safe data sharing and model training.
- Use encryption and secure computation techniques to protect model inputs and outputs.
Red Teaming AI Systems: Offensive Security for ML Models
14 HorasThis instructor-led, live training in Panama (online or onsite) is aimed at advanced-level security professionals and ML specialists who wish to simulate attacks on AI systems, uncover vulnerabilities, and enhance the robustness of deployed AI models.
By the end of this training, participants will be able to:
- Simulate real-world threats to machine learning models.
- Generate adversarial examples to test model robustness.
- Assess the attack surface of AI APIs and pipelines.
- Design red teaming strategies for AI deployment environments.
Securing Edge AI and Embedded Intelligence
14 HorasEsta formación en vivo dirigida por un instructor en Panama (en línea o presencial) está destinada a ingenieros y profesionales de seguridad de nivel intermedio que desean proteger los modelos de IA implementados en el borde contra amenazas como la manipulación, la fuga de datos, las entradas adversarias y ataques físicos.
Al finalizar esta formación, los participantes podrán:
- Identificar y evaluar riesgos de seguridad en implementaciones de IA en el borde.
- Aplique técnicas de resistencia a la manipulación e inferencia cifrada.
- Fortalezca modelos desplegados en el borde y proteja las tuberías de datos.
- Implemente estrategias de mitigación de amenazas específicas para sistemas embebidos y restringidos.
Securing AI Models: Threats, Attacks, and Defenses
14 HorasEsta formación en vivo dirigida por un instructor en Panama (en línea o presencial) está destinada a profesionales de nivel intermedio en aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra modelos de IA, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar esta formación, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Introducción al Modelado de Amenazas para IA
- ¿Qué hace que los sistemas de AI sean vulnerables?
- Superficie de ataque de AI vs sistemas tradicionales
- Vectores de ataque clave: capas de datos, modelo, salida e interfaz
Ataques Adversarios en Modelos de IA
- Comprender ejemplos adversarios y técnicas de perturbación
- Ataques de caja blanca vs caja negra
- Métodos FGSM, PGD y DeepFool
- Visualización y creación de muestras adversarias
Inversión del Modelo y Fugas de Privacidad
- Inferir datos de entrenamiento a partir de la salida del modelo
- Ataques de inferencia de membresía
- Riesgos de privacidad en modelos de clasificación y generativos
Envenenamiento de Datos e Inyecciones de Puertas Traseras
- Cómo los datos envenenados influyen en el comportamiento del modelo
- Puertas traseras basadas en desencadenantes y ataques Troyano
- Estrategias de detección y saneamiento
Robustez y Técnicas Defensivas
- Entrenamiento adversario y aumento de datos
- Mascaramiento del gradiente y preprocesamiento de entrada
- Técnicas de suavizado y regularización del modelo
Defensas de AI que Preservan la Privacidad
- Introducción a la privacidad diferencial
- Inyección de ruido y presupuestos de privacidad
- Aprendizaje federado y agregación segura
AI Security en Práctica
- Evaluación y despliegue de modelos conscientes de amenazas
- Uso del ART (Adversarial Robustness Toolbox) en configuraciones aplicadas
- Casos de estudio de la industria: fugas reales y mitigaciones
Resumen y Próximos Pasos
La seguridad de modelos de AI es la disciplina de defender sistemas de aprendizaje automático contra amenazas específicas del modelo, como entradas adversarias, envenenamiento de datos, ataques de inversión y fugas de privacidad.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a profesionales de nivel intermedio en aprendizaje automático y ciberseguridad que desean comprender y mitigar las amenazas emergentes contra modelos de AI, utilizando tanto marcos conceptuales como defensas prácticas como el entrenamiento robusto y la privacidad diferencial.
Al finalizar esta formación, los participantes podrán:
- Identificar y clasificar amenazas específicas de AI como ataques adversarios, inversión y envenenamiento.
- Utilizar herramientas como el Adversarial Robustness Toolbox (ART) para simular ataques y probar modelos.
- Aplicar defensas prácticas que incluyen entrenamiento adversario, inyección de ruido y técnicas de preservación de la privacidad.
- Diseñar estrategias de evaluación de modelos conscientes de amenazas en entornos de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para acordarlo.
Requisitos previos
- Comprensión de los flujos de trabajo del aprendizaje automático y el entrenamiento del modelo
- Experiencia con Python y marcos comunes de ML como PyTorch o TensorFlow
- Familiaridad con conceptos básicos de seguridad o modelado de amenazas es útil
Audiencia
- ingenieros de aprendizaje automático
- analistas de ciberseguridad
- investigadores de AI y equipos de validación del modelo