¿Ya te cansaste de usar ChatGPT y no sabes qué otra IA probar? El empresario Arturo Elías Ayub tiene una recomendación. El directivo de América Móvil y Fundación Telmex compartió recientemente que decidió cambiar de herramienta de inteligencia artificial.
Según explicó, en estos días dejó de usar ChatGPT y ahora apuesta por Claude AI, una plataforma que, asegura, le ha gustado mucho más que el chatbot desarrollado por OpenAI y que se ha vuelto popular gracias a su utilidad en varios ámbitos.
“Me cambié de ChatGPT a Claude y no manches, de veras me está gustando muchísimo más.”, afirmó el extiburón de Shark Tank México en un video publicado en su cuenta de TikTok.
Elías Ayub señaló que cambiar de plataforma no implica perder la personalización ni empezar desde cero, ya que la información del usuario puede trasladarse de una herramienta a otra. Según dijo, este proceso se puede realizar directamente desde las propias aplicaciones y toma solo unos minutos.
“Y si eres como yo que dijiste: ‘pero es que ya ChatGPT me sabe todo y entonces me contesta personalizado, pregúntale al mismo ChatGPT o a Claude (...) o sea, que le pases desde ChatGPT todo lo que sabe de ti a Claude y ya con eso. Está facilísimo. Yo lo vi en un video en Insta y lo hice en tres minutos”, aseguró.
¿Qué es Claude AI y qué la hace diferente de ChatGPT?
Claude AI es un sistema de inteligencia artificial generativa desarrollado por la empresa Anthropic, fundada en 2021 por exempleados de OpenAI. Su enfoque principal está en la seguridad, la interpretabilidad y el control de los modelos de lenguaje.
El nombre “Claude” hace referencia a Claude Shannon, considerado uno de los padres de la teoría de la información. Desde su lanzamiento, el sistema ha evolucionado con distintas versiones orientadas a tareas como redacción, análisis de documentos, programación y asistencia conversacional.
A diferencia de otros modelos, Claude AI ha sido diseñado con un enfoque en lo que la empresa denomina “IA constitucional”, un método que busca alinear las respuestas del sistema con principios éticos definidos, reduciendo riesgos de contenido dañino o sesgado.
Entre sus capacidades, Claude puede procesar grandes volúmenes de texto, resumir documentos extensos, generar contenido escrito y asistir en tareas complejas. Una de sus características destacadas es la amplitud de contexto que puede manejar en comparación con otros modelos.
En cuanto a diferencias con ChatGPT, usuarios han señalado variaciones en el estilo de respuesta, profundidad analítica y manejo de instrucciones largas. Mientras ChatGPT destaca por su integración en múltiples plataformas y ecosistemas, Claude ha ganado atención por su enfoque en seguridad y procesamiento de texto de gran escala.
El conflicto entre Anthropic y el gobierno de Estados Unidos
Anthropic, desarrolladora de Claude AI, enfrenta actualmente un conflicto legal con el gobierno de Estados Unidos, luego de negarse a permitir que su tecnología sea utilizada con fines militares por el Pentágono.
El origen de la disputa está en una declaración del Departamento de Defensa, que calificó a la empresa como un riesgo para la cadena de suministro estadounidense. Este señalamiento sirvió como base para que la administración de Donald Trump impulsara una prohibición para cortar vínculos con la compañía, en medio de desacuerdos sobre cómo podría utilizarse su inteligencia artificial.
Anthropic respondió en dos frentes legales. Por un lado, solicitó a un tribunal de apelaciones en Washington suspender temporalmente la declaración del Pentágono; sin embargo, un panel de jueces rechazó esa petición, aunque accedió a revisar el caso de manera acelerada y programó una audiencia para mayo.
Por otro, la empresa presentó una demanda en un tribunal federal en California para frenar la prohibición. En ese proceso, un juez bloqueó momentáneamente la medida mientras continúa el litigio, lo que mantiene en pausa cualquier restricción definitiva sobre su tecnología.
En sus argumentos, Anthropic sostiene que la decisión del gobierno es arbitraria y podría causarle pérdidas de miles de millones de dólares, además de sentar un precedente para otros contratistas federales. También ha señalado que buscaba garantías de que su IA no sería utilizada para vigilancia masiva ni en sistemas de armas autónomas, condiciones que fueron rechazadas por autoridades bajo el argumento de seguridad nacional.
La empresa también ha enfrentado incidentes internos. Un directivo reconoció recientemente la filtración accidental de código relacionado con su sistema Claude, atribuida a errores en sus procesos de lanzamiento. Días antes, se reportó que archivos internos habían estado accesibles en un sistema público, lo que expuso información técnica de la compañía.
Con información de Bloomberg.



