WWWhat's new

Anthropic, el futuro de la IA ética, respaldado por Google y Salesforce con una inversión de 450 millones de dólares

claude

En la carrera de la inteligencia artificial (IA), la ética y la seguridad se han convertido en cuestiones de suma importancia. Anthropic, una start-up de San Francisco y rival de OpenAI, está trabajando para marcar la diferencia en este aspecto. Recientemente, ha conseguido una inversión de 450 millones de dólares en su Serie C, liderada por Spark Capital y con la participación de gigantes tecnológicos como Google y Salesforce.

Fuentes de inversión

La inversión en Anthropic proviene de empresas de renombre como Google, Salesforce Ventures, Sound Ventures, Zoom Ventures y otros. La empresa también ha tenido que enfrentarse a controversias financieras debido a su relación con Alameda Research, un fondo de cobertura de criptomonedas asociado con el escándalo de la bolsa de criptomonedas FTX, que colapsó el año pasado.

¿Qué es Anthropic?

Anthropic es una empresa de IA basada en San Francisco, fundada por ex empleados de OpenAI. Su objetivo es expandir sus ofertas de productos, escalar su asistente de IA llamado Claude y realizar investigaciones sobre cómo garantizar que los sistemas de IA se comporten éticamente y eviten posibles daños. Anthropic se ha convertido en un líder en la investigación de la seguridad de la IA.

El asistente de IA, Claude

Claude, el producto estrella de la compañía, se basa en la investigación de Anthropic para formar sistemas de IA útiles, honestos e inofensivos. Se espera que Claude ofrezca servicios de IA confiables que puedan impactar positivamente a empresas y consumidores ahora y en el futuro. Según la empresa, Claude es más transparente sobre sus comportamientos y limitaciones que otros sistemas de IA, como ChatGPT, y puede manejar conversaciones adversas y seguir instrucciones precisas.

Esto es lo que puede hacer:

Uso y pruebas de Claude

Claude es accesible a través de una interfaz de chat y una API en la consola de desarrollador de la empresa. Anthropic ha estado probando Claude con socios clave como Notion, Quora y DuckDuckGo durante los últimos meses. Los comentarios de los primeros clientes han sido extremadamente positivos, y según se informa, Claude es mucho menos probable que produzca resultados perjudiciales, es más fácil de conversar con él y es más dirigible que otros asistentes de IA.

Planes futuros de Anthropic

Anthropic planea utilizar la nueva financiación para expandir sus ofertas de productos, apoyar a las empresas que implementarán responsablemente a Claude en el mercado y promover la investigación de seguridad en IA. La compañía también está trabajando en el desarrollo de nuevas características para Claude, como las ventanas de contexto de 100K, que permiten a los usuarios enviar cientos de páginas de materiales para que Claude los digiera y analice.

En la era de la digitalización, la ética de la inteligencia artificial es un tema de debate acalorado. La iniciativa de Anthropic de asegurar sistemas de IA éticos y seguros es un paso adelante hacia un futuro más seguro y más ético en la tecnología de la inteligencia artificial. Aunque Anthropic ha tenido que lidiar con controversias, su compromiso con la ética y la seguridad de la IA ha logrado atraer a inversionistas de alto perfil y le ha otorgado credibilidad en el ámbito tecnológico.

Fuente: VentureBeat

Salir de la versión móvil