- Más
Equipo del proyecto de IA de Stanford se disculpa por plagiar el modelo chino
Inteligencia Artificial. (Foto: VCG)
Un equipo de inteligencia artificial (IA) de la Universidad de Stanford se disculpó por plagiar un modelo de lenguaje grande (LLM) de una empresa china de inteligencia artificial. El tema se ha popularizado en las redes sociales chinas, provocando preocupación entre los internautas.
Un LLM es un algoritmo de aprendizaje profundo que puede realizar una variedad de tareas de procesamiento de lenguaje natural (NLP).
"Pedimos disculpas a los autores de MiniCPM [el modelo de IA desarrollado por una empresa china] por cualquier inconveniente que hayamos causado por no hacer toda la diligencia para verificar y revisar por pares la novedad de este trabajo, escribieron los desarrolladores del modelo de IA multimodal Llama3-V, en la red X (anteriormente Twitter).
La disculpa se produjo después de que el equipo de la Universidad de Stanford anunciara el 29 de mayo su modelo Llama3-V, afirmando que tenía un rendimiento comparable al GPT4-V y otros modelos con capacidad para entrenar por menos de 500 dólares.
De acuerdo a los medios de comunicación, el anuncio publicado por uno de los miembros del equipo recibió más de 300.000 visitas.
Sin embargo, algunos internautas de X encontraron y enumeraron evidencia de cómo el código del proyecto Llama3-V fue reformateado y similar a MiniCPM-Llama3-V 2.5, un LLM desarrollado por una empresa de tecnología china, ModelBest, y la Universidad de Tsinghua.
Dos miembros del equipo, Aksh Garg y Siddharth Sharma, volvieron a publicar la consulta de un internauta y este lunes se disculparon. Asimismo, afirmaron que su papel era promocionar el modelo en Medium y X, y que no habían podido contactar al miembro que escribió el código para el proyecto.
Ellos señalaron que habían revisado documentos recientes para validar la novedad del trabajo, pero no habían sido informados ni estaban al tanto de ninguno de los trabajos de Open Lab para Big Model Base, que fue fundado por el Laboratorio de Procesamiento del Lenguaje Natural de la Universidad de Tsinghua y ModelBest. Y subrayaron que han eliminado todas las referencias a Llama3-V, con respecto a la obra original.
En respuesta, Liu Zhiyuan, científico jefe de ModelBest, habló en la plataforma de redes sociales china Zhihu, indicando que el equipo de Llama3-V no cumplió con los protocolos de código abierto para respetar y honrar los logros de los investigadores anteriores, socavando seriamente la piedra angular del intercambio de código abierto.
En una captura de pantalla filtrada en línea, Li Dahai, director general de ModelBest, también hizo una publicación en su momento de WeChat, aclarando que los dos modelos tenían una gran similitud en términos de proporcionar respuestas, e incluso los mismos errores. Y subrayó que hay datos relevantes que aún no se habían publicado.
El equipo chino destacó que espera que su trabajo reciba más atención y reconocimiento, pero no de esta manera. También instó por un entorno comunitario abierto, cooperativo y confiable.
El director del Laboratorio de Inteligencia Artificial de Stanford, Christopher Manning, también respondió a la explicación de Garg, comentando "¡Cómo no reconocer tus errores!" en X.
En Sina Weibo, los internautas chinos comentaron que la investigación académica debería ser rigurosa, aunque el incidente también demuestra que el desarrollo tecnológico chino sigue progresando.