2024.4.20-千问1.5 110B

1、千问1.5 110B

目前提供了在线使用,模型即将发布。

地址:https://huggingface.co/spaces/Qwen/Qwen1.5-110B-Chat-demo

Untitled

2、MoA:用于图片合成的混合注意力架构

类似LLM的混合专家架构,MoA使用的是混合注意力架构,可以实现风格参考和人物融合的效果。

项目地址:https://snap-research.github.io/mixture-of-attention/

teaser_banner_2_3.mp4