分享实测“疯武纠恬到底有挂吗”(确实有挂)
tqq005
2025-10-15 23:37:39
您好:疯武纠恬这款游戏可以开挂,确实是有挂的,需要软件加微信【69174242】,很多玩家在疯武纠恬这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到-人的牌一样。所以很多小伙伴就怀疑这款游戏是不是有挂,实际上这款游戏确实是有挂的


1.疯武纠恬
这款游戏可以开挂,确实是有挂的,通过添加客服微信【69174242


2.在"设置DD功能DD微信手麻工具"里.点击"开启".


3.打开工具加微信【69174242】.在"设置DD新消息提醒"里.前两个选项"设置"和"连接软件"均勾选"开启"(好多人就是这一步忘记做了)


4.打开某一个微信组.点击右上角.往下拉."消息免打扰"选项.勾选"关闭"(也就是要把"群消息的提示保持在开启"的状态.这样才能触系统发底层接口。)


【央视新闻客户端】

在多模态大模型的后训练浪潮中,强化学习驱动的范式已成为提升模型推理与通用能力的关键方向。

然而,大多数现有方法仍以文本为中心,视觉部分常被动地作为辅助信号输入。相比之下,我们认为在后训练阶段重新审视视觉自监督学习的潜力,设计以视觉为中心的后训练对于增强多模态大模型对于视觉信息本身的细粒度深入理解也同样至关重要。

为此,来自MMLab@南洋理工大学的最新论文《Visual Jigsaw Post-Training Improves MLLMs》提出了一种全新的针对多模态大模型后训练任务-Visual Jigsaw。

它将经典的自监督拼图任务重新设计为多模态大模型后训练阶段的核心目标,让模型在不依赖额外标注、也无需视觉生成模块的情况下,显式强化自身的视觉感知与理解能力。在图片,视频,和3D三种视觉模态下都验证了其有效性。

Visual Jigsaw可以看作是一类通用的对于视觉信息的排序重建任务。给定某种视觉模态的数据(图片,视频,3D),对其进行特定的划分并随机打乱顺序,获得一组子元素作为拼图块。模型的目标是重构视觉信息,预测出它们的正确顺序,并以文字的形式输出对应的排列顺序。整个训练过程采用强化学习算法GRPO来优化。

Visual Jigsaw有对应的GT可以直接验证,团队设计了一个分级奖励机制:预测完全正确时奖励为1;若部分位置正确,则按照正确比例给奖励,并乘上折扣系数来防止模型过度依赖部分匹配;若输出不是有效的排列,则奖励为0。

对于不同视觉模态,具体的Visual Jigsaw任务设计如下

Image Jigsaw:图片在2D空间上被划分为 个相同大小的子图,打乱后模型需恢复正确的空间顺序。

Video Jigsaw:视频在时间维度上被分割成等长的视频片段,模型需重建原始的时间顺序。

3D Jigsaw:从RGB-D图像中采样多个深度点,在图片中标注对应点的位置和打乱后的序号,要求模型恢复由近到远的深度次序。

通过在多种图像、视频和3D模态上分别验证了 Visual Jigsaw的有效性:

经过image jigsaw 的训练,模型在三类vision-centric的基准上都带来了稳定提升:

1)细粒度感知与理解,2)基于单目图像的空间感知和理解,3) 组合式视觉理解与推理。

结果表明,在多模态大模型中引入image jigsaw的后训练,能显著增强其感知能力和细粒度视觉理解能力,而这恰恰是现有以推理为主的后训练策略所欠缺的。

这种提升来源于拼图任务本身的要求——模型必须关注局部 patch 的细节、推理整体空间布局,并理解不同 patch 之间的关系,这些都直接促进了细粒度、空间和组合式的理解。

经过video jigsaw 的训练,模型在各类通用视频理解基准上均表现出稳定的提升。该方法整体上增强了模型对视频的感知与理解,并且在需要时间维度推理和时间方向性理解的任务(如 AoTBench)上提升尤为显著。

同时,在CVBench上的大幅度提升也验证了模型在跨视频理解与推理上的增强。这表明,视频拼图任务能够促使模型更好地捕捉时间连续性、理解视频间的关联、推理方向一致性,并最终提升对视频的整体和通用理解能力。

经过3D Jigsaw的训练,模型在各类3D基准任务上都取得了显著提升。最突出的提升出现在与深度估计直接相关的 DA-2K 上,这是深度排序预训练任务的直接体现。但更重要的是,在广泛的其他任务上也观察到了一致的提升,包括单视角基准(如 3DSRBench、OmniSpatial)、多视角基准(如 ViewSpatial、All-Angles),以及第一人称视频基准(如 VSI-Bench)。这些结果表明,该方法不仅让模型掌握了深度排序这一特定技能,同时也有效增强了其整体的三维空间感知与推理能力。

Visual Jigsaw提供了一种以视觉为中心的轻量、可验证、无需标注的新型自监督后训练范式,为 MLLMs 的视觉感知注入了全新活力。团队希望这一工作不仅展示了视觉拼图任务的潜力,更能启发学界设计更多聚焦视觉信息本身的自/弱监督任务,让多模态大模型能够更好地感知和理解各类视觉信息。

论文链接:https://arxiv.org/abs/2509.25190

项目主页:https://penghao-wu.github.io/visual_jigsaw/

数据和模型HF链接:https://huggingface.co/collections/craigwu/visual-jigsaw-68d92d6aca580f3dc7e3cf36

代码仓库链接:https://github.com/penghao-wu/visual_jigsaw

本文来自微信公众号“量子位”,作者:VisualJigsaw团队,36氪经授权发布。

该文观点仅代表作者本人,36氪平台仅提供信息存储空间服务。

聚焦全球优秀创业者,项目融资率接近97%,领跑行业

在多模态大模型的后训练浪潮中,强化学习驱动的范式已成为提升模型推理与通用能力的关键方向。

然而,大多数现有方法仍以文本为中心,视觉部分常被动地作为辅助信号输入。相比之下,我们认为在后训练阶段重新审视视觉自监督学习的潜力,设计以视觉为中心的后训练对于增强多模态大模型对于视觉信息本身的细粒度深入理解也同样至关重要。

为此,来自MMLab@南洋理工大学的最新论文《Visual Jigsaw Post-Training Improves MLLMs》提出了一种全新的针对多模态大模型后训练任务-Visual Jigsaw。

它将经典的自监督拼图任务重新设计为多模态大模型后训练阶段的核心目标,让模型在不依赖额外标注、也无需视觉生成模块的情况下,显式强化自身的视觉感知与理解能力。在图片,视频,和3D三种视觉模态下都验证了其有效性。

Visual Jigsaw可以看作是一类通用的对于视觉信息的排序重建任务。给定某种视觉模态的数据(图片,视频,3D),对其进行特定的划分并随机打乱顺序,获得一组子元素作为拼图块。模型的目标是重构视觉信息,预测出它们的正确顺序,并以文字的形式输出对应的排列顺序。整个训练过程采用强化学习算法GRPO来优化。

Visual Jigsaw有对应的GT可以直接验证,团队设计了一个分级奖励机制:预测完全正确时奖励为1;若部分位置正确,则按照正确比例给奖励,并乘上折扣系数来防止模型过度依赖部分匹配;若输出不是有效的排列,则奖励为0。

对于不同视觉模态,具体的Visual Jigsaw任务设计如下

Image Jigsaw:图片在2D空间上被划分为 个相同大小的子图,打乱后模型需恢复正确的空间顺序。

Video Jigsaw:视频在时间维度上被分割成等长的视频片段,模型需重建原始的时间顺序。

3D Jigsaw:从RGB-D图像中采样多个深度点,在图片中标注对应点的位置和打乱后的序号,要求模型恢复由近到远的深度次序。

通过在多种图像、视频和3D模态上分别验证了 Visual Jigsaw的有效性:

经过image jigsaw 的训练,模型在三类vision-centric的基准上都带来了稳定提升:

1)细粒度感知与理解,2)基于单目图像的空间感知和理解,3) 组合式视觉理解与推理。

结果表明,在多模态大模型中引入image jigsaw的后训练,能显著增强其感知能力和细粒度视觉理解能力,而这恰恰是现有以推理为主的后训练策略所欠缺的。

这种提升来源于拼图任务本身的要求——模型必须关注局部 patch 的细节、推理整体空间布局,并理解不同 patch 之间的关系,这些都直接促进了细粒度、空间和组合式的理解。

经过video jigsaw 的训练,模型在各类通用视频理解基准上均表现出稳定的提升。该方法整体上增强了模型对视频的感知与理解,并且在需要时间维度推理和时间方向性理解的任务(如 AoTBench)上提升尤为显著。

同时,在CVBench上的大幅度提升也验证了模型在跨视频理解与推理上的增强。这表明,视频拼图任务能够促使模型更好地捕捉时间连续性、理解视频间的关联、推理方向一致性,并最终提升对视频的整体和通用理解能力。

经过3D Jigsaw的训练,模型在各类3D基准任务上都取得了显著提升。最突出的提升出现在与深度估计直接相关的 DA-2K 上,这是深度排序预训练任务的直接体现。但更重要的是,在广泛的其他任务上也观察到了一致的提升,包括单视角基准(如 3DSRBench、OmniSpatial)、多视角基准(如 ViewSpatial、All-Angles),以及第一人称视频基准(如 VSI-Bench)。这些结果表明,该方法不仅让模型掌握了深度排序这一特定技能,同时也有效增强了其整体的三维空间感知与推理能力。

Visual Jigsaw提供了一种以视觉为中心的轻量、可验证、无需标注的新型自监督后训练范式,为 MLLMs 的视觉感知注入了全新活力。团队希望这一工作不仅展示了视觉拼图任务的潜力,更能启发学界设计更多聚焦视觉信息本身的自/弱监督任务,让多模态大模型能够更好地感知和理解各类视觉信息。

论文链接:https://arxiv.org/abs/2509.25190

项目主页:https://penghao-wu.github.io/visual_jigsaw/

数据和模型HF链接:https://huggingface.co/collections/craigwu/visual-jigsaw-68d92d6aca580f3dc7e3cf36

代码仓库链接:https://github.com/penghao-wu/visual_jigsaw

本文来自微信公众号“量子位”,作者:VisualJigsaw团队,36氪经授权发布。

相关内容

热门资讯

玩家必看“荔枝竞技是否真的有挂... 亲,根据资深记者爆料荔枝竞技是可以开挂的,确实有挂(咨询软件无需打开直接加微6378730)您好,荔...
科普实测“七千在线其实真有透视... 您好:七千在线这款游戏可以开挂,确实是有挂的,需要了解加客服微信【69174242】很多玩家在七千在...
重大通报“新道游拼三张究竟有透... 您好:新道游拼三张这款游戏可以开挂,确实是有挂的,需要软件加微信【4194432】,很多玩家在新道游...
实测分享“花城牌舍到底是不是有... 您好:花城牌舍这款游戏可以开挂,确实是有挂的,需要软件加微信【5902455】,很多玩家在花城牌舍这...
分享实测“随意玩其实有透视挂”... 您好:随意玩这款游戏可以开挂,确实是有挂的,需要软件加微信【69174242】,很多玩家在随意玩这款...