Claude es una familia de grandes modelos lingüísticos desarrollada por Anthropic.[1]
Es producto de la investigación colaborativa con socios como Notion, Quora y DuckDuckGo. Su algoritmo está entrenado para ser funcional como asistente, al cual se le pueden hacer preguntas de forma similar a como se realizan con ChatGPT. Su entrenamiento permite la generación de texto como resultado a las preguntas que se planteen, de una manera muy similar a como lo harían los humanos; no obstante, es necesario tener en cuenta que al ser un algoritmo (software), sus respuestas corresponden a una construcción textual predictiva con base en una semántica lógica,[2] no al razonamiento de las preguntas que se realizan. Al igual que todos los algoritmos de inteligencia artificial, Claude carece de autoconciencia[3] e inteligencia general.[4][5]
Claude puede proporcionar resúmenes de temas concretos o crear historias, entre otras actividades, como:
Claude 3
Claude 3 se lanzó el 14 de marzo de 2024, con afirmaciones de haber establecido nuevos puntos de referencia en la industria a través de una amplia gama de tareas cognitivas. La familia Claude 3 incluye tres modelos de vanguardia en orden ascendente de capacidad: Haiku, Sonnet y Opus. La versión predeterminada de Claude 3 Opus tiene una ventana de contexto de 200,000 tokens, pero esta capacidad se está ampliando a 1 millón para casos de uso específicos.[6][7]
Claude 3 parece haber realizado un razonamiento metacognitivo, incluyendo la capacidad de darse cuenta de estar siendo probado artificialmente durante evaluaciones de aguja en un pajar.[8][9]
Característica | Descripción |
---|---|
Nombre | Claude |
Creador | Anthropic |
Tipo | Asistente de inteligencia artificial[10] con capacidades limitadas |
Año de inicio | 14 de marzo de 2023[11] |
Tecnologías | Es un modelo de lenguaje entrenado con técnicas de aprendizaje automático (machine learning)[12] |
Conocimientos | No se informa sobre la cantidad de parámetros usados para su entrenamiento, pero se menciona que fueron usados millones de datos escritos y conversaciones. |
Capacidades | Puedo mantener conversaciones simples, responder a preguntas, proporcionar recomendaciones e información sobre ciertos temas, aunque con ciertas limitantes. |
Propósito | Asistir en ciertas actividades humanas para ahorrar tiempo y esfuerzo. Pero se advierte que las decisiones importantes siempre deben ser tomadas por personas |
Limitaciones | No posee inteligencia general[4] si se pretende igualar las capacidades humanas. Carece de autoconciencia[3], libre albedrío[13], empatía[14], intuición[15], creatividad[16] o juicio moral[17]. |
Plataforma | Opera en plataforma web en su sitio oficial: https://claude.ai/ |
Anthropic es una empresa de investigación que se centra en la construcción de sistemas de inteligencia artificial, fundada en 2021 por Dario Amodei y Daniela Amodei. La empresa ha recaudado más de 400 millones de dólares en fondos de inversores como Google, Andreessen Horowitz y Peter Thiel y cuenta con un equipo de más de 100 investigadores e ingenieros que trabajan en una variedad de problemas de seguridad de la inteligencia artificial. Actualmente su trabajo se centra en desarrollar nuevas técnicas para hacer que los sistemas de inteligencia artificial sean más confiables, interpretables y dirigibles, con la intención de garantizar que este tipo de tecnología se utilice de manera ética y no repercuta de manera negativa en la sociedad.[18]
Entre las investigaciones publicadas por la empresa se encuentran:
Es una vertiente de la inteligencia artificial que se enfoca en el procesamiento del lenguaje natural, se fundamenta en los principios del test de Turing (1950)[19] al intentar comprender el lenguaje humano y dar una respuesta con una estructura sintáctica similar al lenguaje humano. Turing con su juego de la imitación, logró sentar las bases para responder a su pregunta respecto a si ¿las máquinas pueden pensar?[20] Posterior a los estudios de Turing, McCarthy; Minsky; Rochester y Shannon (1955)[21] acuñaría el término de inteligencia artificial, el cual se dio a conocer en la conferencia de Dartmouth, que tuvo lugar en el verano de 1956 en la universidad Dartmouth College en el año 1956.
Este campo de desarrollo tecnológico ha sido muy prometedor, motivo por el que su investigación ha llevado a la creación de distintas tecnologías en el campo de la inteligencia artificial. De modo que en la actualidad, es posible hacer cuasi cualquier cosa con inteligencia artificial, lo que también ha despertado la preocupación de grupos sociales, preocupaciones que han movilizado a investigadores y académicos en busca de mostrar el posible impacto negativo de este tipo de tecnologías en diversos aspectos de la vida humana, entre los que destaca el sector laboral,[22] la manipulación social,[23] así como en el periodismo;[24][25] por mencionar algunos.
Es importante considerar que el uso de la inteligencia artificial de manera desinformada, sin considerar leyes morales y principios éticos, puede tener impactos negativos en la sociedad, por lo que debemos tener cuidado con el uso de estas aplicaciones, ya que en concreto, hablando de algoritmos de generativos de texto, difundir los contenidos generados sin el razonamiento humano, y presentarlos como información veraz, puede llevarnos a un estado de posverdad,[26] de desinformación que podría sesgar las decisiones personales a consecuencia de la exposición a información incorrecta, parcial o malintencionada.