摘要:
近期,彭博社报道了谷歌与Discord合作,邀请自家AI聊天机器人Bard的忠实用户参与在线讨论会。在这场活动中,Bard的产品经理、设计师和工程师们探讨了AI的有效性和实用性,同时也引发了对AI可靠性的质疑。
详细内容:
在Bard社区的讨论中,高级产品经理Dominik Rabiej表达了对大语言模型生成回复的不信任,建议用户仅在创意和头脑风暴场景下使用Bard,并指出将其用于编程也是一个合理的选择,因为需要验证代码的正确性。Rabiej强调了“仔细检查回复”按钮的重要性,这个功能能够突出显示潜在不准确的内容,并解释了Bard仅能根据用户提示生成更多文本,而非提供资料查询或总结服务。他提醒用户:“Bard与其他大型模型一样,是生成性的,它并不旨在辅助资料查找或总结,而是生成文本。”
另一位产品经理Warkentin则强调了人性化改进的必要性,认为这样才能使Bard成为适用于广大人群的产品,避免用户无法评判其功能的情况。Warkentin呼吁开发出“所有人都能受惠的产品”,而不是局限于象牙塔中的技术。
此外,图灵汇曾报道,谷歌于今年7月扩大部署Bard AI工具时,增加了分享对话链接的功能,允许用户将与Bard的对话以网页链接形式导出,以便他人继续与其互动。然而,X平台分析师Gagan Ghotra发现了一处安全漏洞,谷歌错误地将部分用户共享的链接纳入搜索结果,导致敏感信息泄露。Ghotra建议用户在与Bard交流时避免分享私密内容,以防信息泄露。
总结:
Bard的讨论揭示了AI应用的复杂性和挑战,包括可靠性、隐私保护以及用户教育等问题。随着AI技术的普及,确保其安全性和透明度成为了关键议题。