文章预览
前言 众所期待的SD3,终于在本月12号全面开源了。目前comfyUI已经可以直接用SD3模型了,而webUI暂时还不支持,估计还需要再一两周吧。但LIbLibAI已经推出了在线webUI使用SD3的功能了。本文就来实测一下,SD3和Midjourney的V6,哪个模型的表现更好。 视频版 3个对比角度 我以“文字渲染”、“语义理解”、“视觉美学”作为3个测试对比的角度。这三个切入点,也是SD3官方推的明星卖点。 文字渲染能力 测试案例:烤盘上的饼干,字母形状,上面摆出了“Fresh”字样,在面包店拍摄,人工照明。 左边是SD3的结果图,右边是MidjourneyV6的结果图。文字的还原率差不多,基本都在1/4-1/2之间。同样都是只支持英文,汉字不支持。这也很好理解,连简单的字母都整不明白,复杂的汉字难度就更高了,短期之内,肯定是没办法支持的。 另外,从画面质感的角度上来说,
………………………………