Babbitt | Metaverse Daily Must-Read: En medio de la noche, el fundador de Nvidia, Huang Renxun, trajo un hardware más vigoroso a la "IA generativa popular", diciendo que todos deberían poder participar en la IA generativa
Resumen: Según Geek Park, en la mañana del 8 de agosto, hora local de los Estados Unidos, el fundador y director ejecutivo de Nvidia, Jensen Huang, expuso el súper chip GH200 Grace Hopper para IA generativa en la Conferencia Mundial de Gráficos por Computadora SIGGRAPH2023. NVIDIA Omniverse con IA y OpenUSD actualizaciones Al mismo tiempo, Huang Renxun también anunció que Nvidia ha cooperado con la comunidad de código abierto de IA Hugging Face para ofrecer capacidades de supercomputación de IA generativa a millones de desarrolladores para apoyarlos en la creación de modelos de lenguaje grande (LLM) y aplicaciones de IA.
Fuente de la imagen: Generada por Unbounded AI
Información interesante:
La plataforma de recolección digital Jingtan de Ant Group reducirá el tiempo de transferencia de 90 días a 24 horas
Según un informe del Beijing Youth Daily, en la tarde del 9 de agosto, la plataforma de recolección digital Jingtan de Ant Group ajustó el tiempo de transferencia de los 90 días originales a 24 horas. Esto significa que Whale Explorer ha dado un paso sustancial en la exploración de la circulación de colecciones digitales. Este es otro cambio importante en el momento de la transferencia de regalos después de que la aplicación Whale Explorer cambiara el momento de la primera transferencia de regalos de 180 días a 90 días y el momento de la segunda transferencia de regalos de 720 días a 90 días en febrero de este año. Los coleccionistas de Whale Explorer dijeron que esta modificación llegó muy oportuna y superó las expectativas, lo que equivale a "T+1".
El responsable del equipo de tecnología digital de Ant Group dijo que para satisfacer mejor las necesidades de los usuarios para compartir y regalar, y para difundir la cultura del arte digital original, WhaleTalk ha realizado ajustes ordenados en el límite de tiempo para la transferencia de colecciones digitales. con referencia a la situación general actual de la industria.
Aplicaciones como la investigación científica empresarial y la conducción autónoma no se verán afectadas por la implementación de las "Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa"
Según un informe de Financial Associated Press del 9 de agosto, Luo Fengying, subdirector de la Oficina de Coordinación de Seguridad de Redes de la Administración Central del Ciberespacio, dijo hoy en la 11ª Conferencia de Seguridad de Internet de ISC2023 que el "Servicio de Inteligencia Artificial Generativa" que se implementará oficialmente el 15 de agosto "Medidas provisionales para la gestión", el alcance de su regulación se limita a la inteligencia artificial generativa, que es el modelo de lenguaje grande familiar, y otras aplicaciones de inteligencia artificial como la conducción autónoma no se verán afectadas. Además, las medidas provisionales solo regulan la situación de la prestación de servicios al público, y las empresas, instituciones de investigación científica, universidades, etc. realizan investigaciones científicas y abordan problemas clave, que no están incluidos en la supervisión. Durante el proceso de redacción de las Medidas, la promoción del desarrollo y la aplicación de nuevas tecnologías como la inteligencia artificial siempre se ha considerado un importante punto de partida y de finalización del trabajo, con la esperanza de apoyar y promover el desarrollo de la industria de la inteligencia artificial. . Zhou Hongyi, el fundador de 360 Group, afirmó más tarde que, a menos que una aplicación con un atributo de medios o un atributo de movilización social similar deba pasar una inspección de seguridad, si se trata de una aplicación TOG o TOB, es decir, una aplicación vertical y profesional para la gobierno o empresa, no es necesario procedimientos de control de seguridad.
Miaoya Camera ha ampliado con urgencia su capacidad en Alibaba Cloud para hacer frente al aumento de la demanda de potencia informática cientos de veces
Según el informe de 36 Krypton del 9 de agosto, la aplicación de inteligencia artificial "Cámara Miaoya" se ha vuelto popular recientemente y ha atraído la atención de una gran cantidad de usuarios. Según la persona a cargo relevante, "Miaoya Camera" ha experimentado una expansión de emergencia en Alibaba Cloud para hacer frente al aumento en la demanda de potencia informática cientos de veces.
Oficina Central de Información de la Red Luo Fengying: Convertir datos masivos en datos que puedan usarse para el entrenamiento de modelos grandes es el enfoque del trabajo
Según un informe del "Diario Kechuangban" del 9 de agosto, en la 11ª Conferencia de Seguridad de Internet de ISC 2023, Luo Fengying, subdirector de la Oficina de Coordinación de Seguridad de Redes de la Administración Central del Ciberespacio, dijo en su discurso que debemos ser buenos en convertir recursos de datos en ventaja de datos. Un cuello de botella importante en el desarrollo de la inteligencia artificial generativa es el problema de los conjuntos de datos, por lo tanto, convertir datos masivos en datos que puedan usarse para el entrenamiento de modelos grandes es el enfoque del trabajo. Esto también nos recuerda que para transformar realmente los recursos de datos en la fuerza impulsora del desarrollo de la economía digital, no solo depende del tamaño de los datos almacenados en el área total, sino también de cuántos datos se pueden proporcionar y compartido con empresas, instituciones e individuos; Además, es necesario construir una ecología benigna para la integración y el desarrollo de la industria de tecnología de educación en seguridad de redes.
Stability AI lanza StableCode, un gran modelo de lenguaje para escribir código
Según noticias de IT House el 9 de agosto, Stability AI comenzó a involucrarse en el campo de la generación de código y hoy lanzó su nuevo modelo de lenguaje abierto a gran escala (LLM) StableCode, que está diseñado para ayudar a los usuarios a generar código de lenguaje de programación y se basa en la red neuronal del transformador.
StableCode ofrecerá tres niveles diferentes: un modelo base para uso general, un modelo de instrucción y un modelo de ventana de contexto largo capaz de soportar hasta 16.000 tokens. La versión de ventana de contexto larga de StableCode tiene una ventana de contexto de 16 000 tokens, que Stability AI afirma que es más grande que cualquier otro modelo. La ventana de contexto más larga permite sugerencias de generación de código más especializadas y sofisticadas, y también significa que los usuarios pueden ver un tamaño moderado base de código con varios archivos para ayudar a comprender y generar código nuevo. StableCode aún se encuentra en las primeras etapas y el objetivo oficial es ver cómo los desarrolladores aceptarán y usarán el modelo.
360 lanzará una gran base de modelos de nivel empresarial para mejorar el conocimiento el próximo mes
Según el informe "Kechuangban Daily" del 9 de agosto, 360 lanzará KM Sphere, una base de modelo a gran escala de nivel empresarial para la mejora del conocimiento, el próximo mes, que proporciona más de 100 robots de seguimiento de conocimiento listos para usar e interfaces abiertas. para uso externo Recopilación y extracción en tiempo real de datos de Internet, bases de datos empresariales internas, nubes de documentos, sistemas de aplicaciones y dispositivos. Al mismo tiempo, proporciona modelos de incrustación vectorizados entrenados por modelos grandes, así como servicios de almacenamiento de vectores, con decenas de miles de millones de capacidades de recuperación de vectores.
Tsinghua Facial Intelligence lanzó ToolLLM para mejorar la capacidad de usar herramientas de modelos grandes
Según un informe de Webmaster's Home del 9 de agosto, Mianbi Intelligence de la Universidad de Tsinghua se asoció con varias instituciones de investigación para lanzar el marco de aprendizaje de herramientas ToolLLM y unirse al sistema de herramientas de modelo grande OpenBMB. El marco ToolLLM crea una instrucción de aprendizaje de herramientas de alta calidad que ajusta el conjunto de datos ToolBench, entrena un modelo ToolLLaMA con capacidades de uso de herramientas y evalúa automáticamente el rendimiento del aprendizaje de herramientas a través de Tool. La introducción de este marco ayuda a promover un mejor uso de varias herramientas para modelos de lenguaje de código abierto y mejorar las capacidades de razonamiento en escenarios complejos.
Google y Universal Music están en conversaciones para autorizar a los artistas a usar melodías y sonidos generados por IA
Según Jiemian News citando el "Financial Times" británico del 9 de agosto, Google y Universal Music están negociando para autorizar a los artistas a usar melodías y sonidos de canciones generados por inteligencia artificial. Cuatro personas familiarizadas con el asunto confirmaron que las discusiones entre las dos partes tienen como objetivo forjar asociaciones para las industrias que están lidiando con el impacto de la nueva tecnología de inteligencia artificial.
Lectura recomendada del metaverso:
"Stability AI entra en el campo de la programación y lanza StableCode, una herramienta con una ventana de contexto de hasta 16.000 tokens"
Stability AI es conocida por su modelo generativo de texto a imagen de difusión estable, pero eso no es todo lo que la startup de IA generativa está interesada en desarrollar. Stability AI se está metiendo en el mundo de la generación de código. El 8 de agosto, Stability AI anunció el primer lanzamiento público de StableCode, su nuevo modelo abierto de lenguaje grande (LLM) diseñado para ayudar a los usuarios a generar código para lenguajes de programación. StableCode tiene tres niveles diferentes: un modelo base para casos de uso general, un modelo de instrucción y un modelo de ventana de contexto largo que puede admitir hasta 16000 tokens.
"Huang Renxun: "Fábrica de bombas nucleares" está a punto de conectarse, que todos usen IA generativa"
En la mañana del 8 de agosto, hora local en los Estados Unidos, el fundador y CEO de Nvidia, Huang Renxun, revisó los momentos destacados de Nvidia en la computación gráfica en la Conferencia Mundial de Gráficos por Computadora SIGGRAPH2023, y mostró la última demostración de persecución de carreras 3D con resolución 4K en tiempo real. Sin embargo, solo unos minutos después, el discurso del "Leather Master" pasó por completo de los gráficos 3D a la IA. Como la figura más importante en la ola de inteligencia artificial, Huang Renxun ha proporcionado hardware más potente y aplicaciones y plataformas más inteligentes para la "IA generativa popular".
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Babbitt | Metaverse Daily Must-Read: En medio de la noche, el fundador de Nvidia, Huang Renxun, trajo un hardware más vigoroso a la "IA generativa popular", diciendo que todos deberían poder participar en la IA generativa
Resumen: Según Geek Park, en la mañana del 8 de agosto, hora local de los Estados Unidos, el fundador y director ejecutivo de Nvidia, Jensen Huang, expuso el súper chip GH200 Grace Hopper para IA generativa en la Conferencia Mundial de Gráficos por Computadora SIGGRAPH2023. NVIDIA Omniverse con IA y OpenUSD actualizaciones Al mismo tiempo, Huang Renxun también anunció que Nvidia ha cooperado con la comunidad de código abierto de IA Hugging Face para ofrecer capacidades de supercomputación de IA generativa a millones de desarrolladores para apoyarlos en la creación de modelos de lenguaje grande (LLM) y aplicaciones de IA.
Información interesante:
La plataforma de recolección digital Jingtan de Ant Group reducirá el tiempo de transferencia de 90 días a 24 horas
Según un informe del Beijing Youth Daily, en la tarde del 9 de agosto, la plataforma de recolección digital Jingtan de Ant Group ajustó el tiempo de transferencia de los 90 días originales a 24 horas. Esto significa que Whale Explorer ha dado un paso sustancial en la exploración de la circulación de colecciones digitales. Este es otro cambio importante en el momento de la transferencia de regalos después de que la aplicación Whale Explorer cambiara el momento de la primera transferencia de regalos de 180 días a 90 días y el momento de la segunda transferencia de regalos de 720 días a 90 días en febrero de este año. Los coleccionistas de Whale Explorer dijeron que esta modificación llegó muy oportuna y superó las expectativas, lo que equivale a "T+1".
El responsable del equipo de tecnología digital de Ant Group dijo que para satisfacer mejor las necesidades de los usuarios para compartir y regalar, y para difundir la cultura del arte digital original, WhaleTalk ha realizado ajustes ordenados en el límite de tiempo para la transferencia de colecciones digitales. con referencia a la situación general actual de la industria.
Aplicaciones como la investigación científica empresarial y la conducción autónoma no se verán afectadas por la implementación de las "Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa"
Según un informe de Financial Associated Press del 9 de agosto, Luo Fengying, subdirector de la Oficina de Coordinación de Seguridad de Redes de la Administración Central del Ciberespacio, dijo hoy en la 11ª Conferencia de Seguridad de Internet de ISC2023 que el "Servicio de Inteligencia Artificial Generativa" que se implementará oficialmente el 15 de agosto "Medidas provisionales para la gestión", el alcance de su regulación se limita a la inteligencia artificial generativa, que es el modelo de lenguaje grande familiar, y otras aplicaciones de inteligencia artificial como la conducción autónoma no se verán afectadas. Además, las medidas provisionales solo regulan la situación de la prestación de servicios al público, y las empresas, instituciones de investigación científica, universidades, etc. realizan investigaciones científicas y abordan problemas clave, que no están incluidos en la supervisión. Durante el proceso de redacción de las Medidas, la promoción del desarrollo y la aplicación de nuevas tecnologías como la inteligencia artificial siempre se ha considerado un importante punto de partida y de finalización del trabajo, con la esperanza de apoyar y promover el desarrollo de la industria de la inteligencia artificial. . Zhou Hongyi, el fundador de 360 Group, afirmó más tarde que, a menos que una aplicación con un atributo de medios o un atributo de movilización social similar deba pasar una inspección de seguridad, si se trata de una aplicación TOG o TOB, es decir, una aplicación vertical y profesional para la gobierno o empresa, no es necesario procedimientos de control de seguridad.
Miaoya Camera ha ampliado con urgencia su capacidad en Alibaba Cloud para hacer frente al aumento de la demanda de potencia informática cientos de veces
Según el informe de 36 Krypton del 9 de agosto, la aplicación de inteligencia artificial "Cámara Miaoya" se ha vuelto popular recientemente y ha atraído la atención de una gran cantidad de usuarios. Según la persona a cargo relevante, "Miaoya Camera" ha experimentado una expansión de emergencia en Alibaba Cloud para hacer frente al aumento en la demanda de potencia informática cientos de veces.
Oficina Central de Información de la Red Luo Fengying: Convertir datos masivos en datos que puedan usarse para el entrenamiento de modelos grandes es el enfoque del trabajo
Según un informe del "Diario Kechuangban" del 9 de agosto, en la 11ª Conferencia de Seguridad de Internet de ISC 2023, Luo Fengying, subdirector de la Oficina de Coordinación de Seguridad de Redes de la Administración Central del Ciberespacio, dijo en su discurso que debemos ser buenos en convertir recursos de datos en ventaja de datos. Un cuello de botella importante en el desarrollo de la inteligencia artificial generativa es el problema de los conjuntos de datos, por lo tanto, convertir datos masivos en datos que puedan usarse para el entrenamiento de modelos grandes es el enfoque del trabajo. Esto también nos recuerda que para transformar realmente los recursos de datos en la fuerza impulsora del desarrollo de la economía digital, no solo depende del tamaño de los datos almacenados en el área total, sino también de cuántos datos se pueden proporcionar y compartido con empresas, instituciones e individuos; Además, es necesario construir una ecología benigna para la integración y el desarrollo de la industria de tecnología de educación en seguridad de redes.
Stability AI lanza StableCode, un gran modelo de lenguaje para escribir código
Según noticias de IT House el 9 de agosto, Stability AI comenzó a involucrarse en el campo de la generación de código y hoy lanzó su nuevo modelo de lenguaje abierto a gran escala (LLM) StableCode, que está diseñado para ayudar a los usuarios a generar código de lenguaje de programación y se basa en la red neuronal del transformador.
StableCode ofrecerá tres niveles diferentes: un modelo base para uso general, un modelo de instrucción y un modelo de ventana de contexto largo capaz de soportar hasta 16.000 tokens. La versión de ventana de contexto larga de StableCode tiene una ventana de contexto de 16 000 tokens, que Stability AI afirma que es más grande que cualquier otro modelo. La ventana de contexto más larga permite sugerencias de generación de código más especializadas y sofisticadas, y también significa que los usuarios pueden ver un tamaño moderado base de código con varios archivos para ayudar a comprender y generar código nuevo. StableCode aún se encuentra en las primeras etapas y el objetivo oficial es ver cómo los desarrolladores aceptarán y usarán el modelo.
360 lanzará una gran base de modelos de nivel empresarial para mejorar el conocimiento el próximo mes
Según el informe "Kechuangban Daily" del 9 de agosto, 360 lanzará KM Sphere, una base de modelo a gran escala de nivel empresarial para la mejora del conocimiento, el próximo mes, que proporciona más de 100 robots de seguimiento de conocimiento listos para usar e interfaces abiertas. para uso externo Recopilación y extracción en tiempo real de datos de Internet, bases de datos empresariales internas, nubes de documentos, sistemas de aplicaciones y dispositivos. Al mismo tiempo, proporciona modelos de incrustación vectorizados entrenados por modelos grandes, así como servicios de almacenamiento de vectores, con decenas de miles de millones de capacidades de recuperación de vectores.
Tsinghua Facial Intelligence lanzó ToolLLM para mejorar la capacidad de usar herramientas de modelos grandes
Según un informe de Webmaster's Home del 9 de agosto, Mianbi Intelligence de la Universidad de Tsinghua se asoció con varias instituciones de investigación para lanzar el marco de aprendizaje de herramientas ToolLLM y unirse al sistema de herramientas de modelo grande OpenBMB. El marco ToolLLM crea una instrucción de aprendizaje de herramientas de alta calidad que ajusta el conjunto de datos ToolBench, entrena un modelo ToolLLaMA con capacidades de uso de herramientas y evalúa automáticamente el rendimiento del aprendizaje de herramientas a través de Tool. La introducción de este marco ayuda a promover un mejor uso de varias herramientas para modelos de lenguaje de código abierto y mejorar las capacidades de razonamiento en escenarios complejos.
Google y Universal Music están en conversaciones para autorizar a los artistas a usar melodías y sonidos generados por IA
Según Jiemian News citando el "Financial Times" británico del 9 de agosto, Google y Universal Music están negociando para autorizar a los artistas a usar melodías y sonidos de canciones generados por inteligencia artificial. Cuatro personas familiarizadas con el asunto confirmaron que las discusiones entre las dos partes tienen como objetivo forjar asociaciones para las industrias que están lidiando con el impacto de la nueva tecnología de inteligencia artificial.
Lectura recomendada del metaverso:
"Stability AI entra en el campo de la programación y lanza StableCode, una herramienta con una ventana de contexto de hasta 16.000 tokens"
Stability AI es conocida por su modelo generativo de texto a imagen de difusión estable, pero eso no es todo lo que la startup de IA generativa está interesada en desarrollar. Stability AI se está metiendo en el mundo de la generación de código. El 8 de agosto, Stability AI anunció el primer lanzamiento público de StableCode, su nuevo modelo abierto de lenguaje grande (LLM) diseñado para ayudar a los usuarios a generar código para lenguajes de programación. StableCode tiene tres niveles diferentes: un modelo base para casos de uso general, un modelo de instrucción y un modelo de ventana de contexto largo que puede admitir hasta 16000 tokens.
"Huang Renxun: "Fábrica de bombas nucleares" está a punto de conectarse, que todos usen IA generativa"
En la mañana del 8 de agosto, hora local en los Estados Unidos, el fundador y CEO de Nvidia, Huang Renxun, revisó los momentos destacados de Nvidia en la computación gráfica en la Conferencia Mundial de Gráficos por Computadora SIGGRAPH2023, y mostró la última demostración de persecución de carreras 3D con resolución 4K en tiempo real. Sin embargo, solo unos minutos después, el discurso del "Leather Master" pasó por completo de los gráficos 3D a la IA. Como la figura más importante en la ola de inteligencia artificial, Huang Renxun ha proporcionado hardware más potente y aplicaciones y plataformas más inteligentes para la "IA generativa popular".