1、千问1.5 110B
目前提供了在线使用,模型即将发布。
地址:https://huggingface.co/spaces/Qwen/Qwen1.5-110B-Chat-demo
2、MoA:用于图片合成的混合注意力架构
类似LLM的混合专家架构,MoA使用的是混合注意力架构,可以实现风格参考和人物融合的效果。
项目地址:https://snap-research.github.io/mixture-of-attention/
teaser_banner_2_3.mp4