SSI – Nueva apuesta por una inteligencia artificial segura

Publicado el

ilustración de arte cómic sobre seguridad en inteligencia artificial y colaboración tecnológica

Cuando hablamos de inteligencia artificial (IA), lo primero que nos viene a la mente es todo el potencial que tiene para transformar nuestras vidas, pero también los riesgos asociados. Es aquí donde entra SSI, una nueva startup fundada por Ilya Sutskever, uno de los cofundadores de OpenAI. La empresa ha recaudado 1.000 millones de dólares para desarrollar sistemas de inteligencia artificial centrados en la seguridad.

¿Quién está detrás de SSI?

Sutskever, conocido como uno de los tecnólogos más influyentes en el ámbito de la IA, ha unido fuerzas con Daniel Gross, quien anteriormente lideró iniciativas de inteligencia artificial en Apple, y Daniel Levy, un exinvestigador de OpenAI. Juntos, han fundado Safe Superintelligence (SSI), una empresa que se centra en construir una pequeña y confiable red de investigadores y ingenieros repartidos entre Palo Alto, California y Tel Aviv, Israel. La idea es crear un equipo muy selecto para garantizar que cada miembro comparta la misión de desarrollar una IA que no ponga en riesgo a la humanidad.

¿Por qué una nueva empresa de IA centrada en la seguridad?

Algunos de nosotros podríamos preguntarnos por qué alguien que ya ha trabajado en OpenAI decide lanzar una nueva empresa enfocada en la seguridad de la IA. Según Sutskever, su decisión se debe a que ve «una montaña un poco diferente» en SSI, en comparación con lo que estaba haciendo en OpenAI. Aquí el objetivo es crear una «superinteligencia segura» y dedicar varios años a la investigación antes de llevar productos al mercado.

En mi opinión, esto parece un enfoque prudente, especialmente cuando consideramos que la seguridad en la IA es un tema candente. Con ejemplos de películas y series de ciencia ficción en nuestras mentes, todos hemos imaginado escenarios donde una IA actúa en contra de los intereses humanos. SSI parece estar decidida a asegurarse de que esto no suceda.

El respaldo de los inversores

Entre los inversores de SSI se encuentran algunas de las firmas de capital riesgo más importantes del mundo, como Andreessen Horowitz, Sequoia Capital, y DST Global. Este tipo de respaldo financiero es indicativo de la confianza que tienen en la misión de SSI y en el talento de sus fundadores. Daniel Gross, CEO de SSI, mencionó que buscan rodearse de inversores que «comprendan, respeten y apoyen nuestra misión». Parece que tienen claro que quieren alejarse del «hype» habitual y centrarse en el trabajo fundamental de la IA.

¿Cómo abordará SSI el desarrollo de la IA?

Una de las cosas interesantes que mencionó Sutskever es que su enfoque hacia el «scaling» de la IA será diferente al de OpenAI. Aunque no dio muchos detalles, insinuó que la empresa no se limitará a simplemente «ir más rápido por el mismo camino». Esto me hace pensar que podríamos ver enfoques innovadores en la forma en que entrenan y despliegan sus modelos de IA.

En WWWhat’s New, siempre estamos interesados en nuevas empresas que están tratando de hacer las cosas de manera diferente. SSI parece ser una de esas startups que no solo quiere avanzar en el campo de la inteligencia artificial, sino hacerlo de una manera que sea segura y beneficiosa para todos.

SSI está claramente en una etapa temprana, con solo 10 empleados y sin productos en el mercado aún, pero el enfoque parece ser cuidadosamente planificado. Con un equipo altamente selectivo y un compromiso claro con la seguridad, podríamos estar viendo el comienzo de algo realmente significativo en el mundo de la inteligencia artificial. Para aquellos interesados en el futuro de la tecnología, este es definitivamente un desarrollo a seguir.