Google近日宣布将生成式人工智能模型Gemini深度整合至Gmail中,旨在重塑用户的邮件处理效率。与此同时,针对业界普遍关注的数据安全问题,Google公开承诺不会利用用户的个人邮件内容来训练其底层人工智能模型。
为了消除用户的顾虑,Google特别强调Gmail在设计上始终坚持安全第一的原则。用户在调用Gemini处理邮件任务时,所有操作均在一个严格隔离的环境中完成,确保数据流转的封闭性。
这种处理机制被形象地比喻为“私人房间”模式,模型仅在执行当前指令时拥有临时访问权。一旦任务结束,Gemini便会立即退出并失去对收件箱的访问权限,从流程设计上阻断了数据外泄的可能性。
目前,集成后的Gemini已能胜任邮件润色、措辞校对、收件箱优先级排序以及自动摘要等多项辅助功能。Google希望通过这些高效工具吸引用户,同时凭借比同行更严苛的隐私标准来建立市场竞争优势。
在流媒体和办公软件频繁陷入数据安全争议的当下,Google的这一表态显然具有战略意义。通过强化“不训练、不留存”的技术底线,Google正试图在推动AI普及的同时,为全球数亿Gmail用户构建一道坚实的数字信任防线。
AI聊天机器人信息源受关注,研究显示其四分之一回复直接引用新闻报道,行业媒体和记者被引用率高,路透社和福布斯是主要来源。
Meta发布首款自研AI模型Muse Spark,旨在追赶OpenAI等对手。该模型由Scale AI创始人领衔研发,已集成至Meta AI服务,标志着其“超级智能”战略迈出关键一步。
谷歌更新聊天机器人Gemini,新增危机干预功能,自动识别自杀或自残对话,引导用户获取心理健康资源。此举正值谷歌因聊天机器人被诉“教唆”自杀而面临诉讼,引发社会对AI安全责任的讨论。
Google承诺Gemini AI集成Gmail时严格保护隐私,明确表示不会使用用户邮件数据训练模型,确保个人数据安全隔离。
谷歌为AI助手Gemini新增心理健康支持功能,投入3000万美元支持全球危机热线。该功能可智能识别用户对话中的自残或自杀倾向,自动弹出帮助选项,旨在及时提供援助。

关注 “悠AI” 更多干货技巧行业动态