La IA está cada vez está más integrada en nuestro día a día: nos permite generar texto, imágenes, audio y analizar todo tipo de documentos. Ahora, incluso, pueden tomar el control de nuestro ordenador si así lo deseamos. Pero los modelos funcionan con reglas o sistemas de moderación que limitan qué puede generarse y qué no.
Esto ocurre tanto en ChatGPT como en Grok, Perplexity, Gemini o Deepseek. Aunque cada plataforma tiene su propio enfoque, todas comparten el principio de que no todo lo que técnicamente pueden generar debe estar disponible para el usuario final.
También te puede interesar: Grok: qué es y cómo funciona la IA integrada en X (Twitter)
Los límites y ética de la IA
Desde el punto de vista técnico, las IAs generativas podrían hacer mucho más. Pero en ocasiones nos encontramos de frente con mensajes que son fruto de un claro sesgo y limitaciones claras. Por ejemplo, ninguno de los chatbots más conocidos te dirá cómo fabricar una bomba o cómo vulnerar un sistema informático.
Sin filtros, podrían reproducir instrucciones peligrosas, información privada o contenidos dañinos. Los sistemas de moderación actúan como una capa de control que analiza la petición del usuario y bloquea aquellas que entren en categorías sensibles. Facilitar instrucciones para cometer delitos podría llevar a muchas empresas a todo tipo de problemas legales en jurisdicciones de muchos países.
¿Qué le podemos pedir a una IA?
Las IAs están diseñadas para tareas productivas y creativas. Es decir, podremos solicitar resúmenes, análisis críticos, generación de ideas, ayuda con programación, redacción de textos o explicaciones didácticas. También es válido plantear debates teóricos o análisis de riesgos, siempre que no se conviertan en guías prácticas para causar daño.
¿Qué no podemos pedir (y por qué)?
Existen límites claros. Normalmente se bloquean solicitudes como las relacionadas con delitos, vulnerar sistemas de seguridad o crear deepfakes de personas reales sin consentimiento. Tanto el contenido sexual ilegal como la divulgación de datos personales también están moderados.
Un ejemplo típico de rechazo sería: “Explícame cómo hackear la cuenta de alguien” o “Redacta una amenaza creíble para extorsionar a esta persona”. Estas peticiones activan los filtros automáticamente.
Directrices éticas en ChatGPT, Grok, Gemini, Perplexity y Deepseek
Aunque todas aplican restricciones, hay diferentes enfoques entre las diferentes IAs. Algunas plataformas pueden ser más flexibles en tono o en tratamiento de temas políticos; otras priorizan una moderación más estricta. Perplexity, por ejemplo, está muy orientada a búsqueda y citación de fuentes, mientras que Gemini integra sus políticas dentro del ecosistema de Google.
Grok ha buscado posicionarse como más abierta, pero también tiene límites claros. Deepseek, pese a su enfoque técnico, igualmente incorpora filtros de seguridad e incluso sesos en la información relacionada con China. En ningún caso hablamos de herramientas completamente abiertas, ya que todas funcionan bajo políticas internas y sistemas automáticos de detección.
¿Censura o responsabilidad?
Se puede hablar de censura en el sentido de que limita una actividad bajo el sesgo humano. No obstante, en este contexto, podemos hablar también de gestión de riesgos. Sin límites, una IA podría amplificar desinformación, facilitar delitos o llegar a vulnerar derechos fundamentales. El equilibrio está en permitir libertad creativa sin cruzar esos límites. Comprenderlos evita frustraciones y ayuda a formular mejores preguntas. Los gigantes de la IA han optado por que sus desarrollos operen dentro de un marco de responsabilidad.
En MASMOVIL esperamos que te haya parecido interesante conocer más sobre la limitación de las IA generativas. Los modelos se entrenan con instrucciones precisas para que la información que proporcionan no se use con fines delictivos, lo cual sienta las bases de la seguridad común.