MASK OFFICIAL

看见,即理解。

用遮罩翻译文字,用 VLM 理解世界。隐私计算,端侧运行。

适用多语言场景:漫画、游戏、PPT、手写笔记、图表截图

Original

mask Result

轰!

这个原型,下周前必须完成。

遮罩即所得,融合不破坏

框选你关心的区域,翻译结果在原位融合显示,不打断内容阅读节奏。

传统截图翻译

  • 手动截图、上传、切换窗口
  • 文本脱离原画面,语境丢失
  • 重复操作多,连续阅读成本高

mask 遮罩翻译

  • 直接框选对话框,一步触发
  • 译文融合在原位置,视觉连续
  • 面向连贯阅读,低打断

核心技术亮点

视觉语言模型理解

不止 OCR,能理解图像上下文,准确处理漫画拟声词、图表趋势与手写草图。

端侧隐私保护

OCR 与主要视觉处理在设备本地完成,图片不上传,敏感信息不离开你的设备。

多模型自由切换

支持 OpenAI、Gemini、Qwen、DeepSeek、Ollama 等路径,在速度与质量间自主选择。

不止于文字,更懂画面

传统 OCR 只会“读字”,mask 的 VLM 能“读图”。

场景 传统翻译工具 mask(VLM 翻译)
手写笔记 + 草图 识别零散单词,翻译生硬 理解为原型思路,输出连贯语义
漫画拟声词 无法识别或乱码 识别“ドカン”并翻译为“轰!”
数据图表 只翻译标题 提炼趋势并给出可读总结

隐私,无需妥协

图片输入
设备内 OCR / VLM
本地输出译文

本地优先处理链路,默认不上传图像到云端。

典型使用场景

看懂生肉漫画

框选对话框,瞬间翻译,保留原版画面风格。

理解外文 PPT

翻译标题与正文,同时辅助理解图表含义。

辅助外文游戏

实时理解 UI 与剧情文本,不打断沉浸体验。

整理手写笔记

识别潦草文字与草图语义,生成清晰译文。

用户反馈(早期)

“mask 改变了我看外文漫画的方式,它真的能理解拟声词。” —— 早期测试者

立即体验 mask,让看见即理解成为现实