生成式人工智能最近风靡一时,由ChatGPT发起,微软必应紧随其后。从那以后,谷歌似乎加快了自己的人工智能聊天模式的开发,并以有限的方式发布了Bard,到目前为止,它似乎是一个次于其他竞争对手的产品。它与基本问题作斗争,使用可疑的资源,总的来说,似乎是一个半生不熟的产品。
公平地说,Bing也面临着这些成长的烦恼,而Bard也只是刚刚发布。最重要的是,谷歌并没有像微软所说的必应那样,将巴德打造成一个搜索引擎。然而,如果巴德足够优秀,可以成为一个搜索引擎,我想谷歌可能会把它作为一个搜索引擎来宣传。谷歌不想落在后面,如果它有一个搜索引擎对手来对抗必应,它几乎肯定会这么做。
综上所述,巴德是对一个可怕的被误导的未来的一瞥。它已经在几个场合搞砸了,而且随着谷歌努力让自己的人工智能变得不那么不稳定,它也很难调整它,让它变得有用。要想让人工智能有用,它必须是动态的,但这种动态也伴随着它所依赖的更广泛的互联网的危险。
谷歌试图成为一个搜索引擎,但失败了
谷歌一直表示,巴德不是一个搜索引擎,而是“搜索的补充”。谷歌似乎想让你使用Bard来帮助生成电子邮件、写笔记和做其他创造性的事情……而不是获取信息。
如果谷歌不希望巴德被视为一个搜索引擎,那么为什么它要连接到互联网?
正如许多用户(幽默地)指出的那样,你可以问Bard一些肯定需要互联网才能解决的问题,它也会搜索并试图给你一个答案。如果它的设计只是为了帮助创造力,公司可以很容易地把它变得更像ChatGPT,简单地让它只能回答训练过的问题。然而,事实并非如此,如果你问它不知道答案的问题,它会做出一些雄心勃勃的尝试。
例如,一个用户问Bard需要多长时间才能关闭。这个答案来源于黑客新闻(Hacker News)的一则玩笑评论,该评论称该服务已经被关闭。
巴德在一年中的几个月里也很自由,当你给它一年的前两个月时,它似乎在挣扎。
我只能假设上述情况发生的原因是,巴德识别出了前两个月的“uary”结尾(以及2月的错误拼写),并遵循了自己的模式识别,而不是一年中的实际月份。
不过,无论如何,很明显,巴德还没有完全准备好成为一个搜索引擎,我想这就是为什么它没有被谷歌宣传为搜索引擎的原因。你不应该把它当作一个搜索引擎来使用,原因很简单,在目前的时间点上,它似乎还没有能力成为一个搜索引擎。它可以找到东西,但无法验证它们的真实性,如果它能找到黑客新闻对整个服务被关闭的随机评论,很明显,在这方面需要做很多工作。
巴德、ChatGPT和必应与错误信息的未来
在现代社会,错误信息和虚假信息已经是非常普遍的话题,而人工智能向最终用户提供的东西没有参考框架,可能比以往任何时候都更容易传播错误信息。一般人认为人工智能是一个无所不知的存在,能够理解整个互联网,并将其简化为像我们这样的用户。这与事实相去甚远,而且只会变得更糟。
巴德已经被指控抄袭“汤姆的硬件”,而“汤姆的硬件”在面对此事时,又指责巴德撒谎。如果你认为这听起来有些类似于“我一直是一个很好的Bing😊”的失败,你是对的。这些都是我们已经看到微软处理过的相同陷阱,并且在不过多限制你的AI的情况下很难规避这些问题。当人工智能说一些不是谎言的东西是谎言时,它直接导致了错误信息,即使它很普通。
巴德并不是唯一一个被指控传播错误信息的人工智能,但它确实是当前持续存在的问题的一部分。要确保人工智能只向最终用户提供事实几乎是不可能的,尤其是在寻找最近的信息时。你相信人工智能能有效地回答什么问题?对我来说,它基本上是谷歌助手能够做的任何事情……主要是访问已经整理好的数据。它不是由人工智能收集起来供最终用户使用的;它只是从数据库中读取。
我们现在正处在一个十字路口。一方面,随着时间的推移,人工智能正不断变得越来越强大。像这样的语言模型越来越受欢迎,大多数人只会看到它们的有效性并立即开始使用它们;从用户达到1亿的时间来看,ChatGPT是有史以来增长最快的消费者应用程序。话虽如此,当这些节目的内容不受监管和未经核实时,它们的影响力就会大得令人难以置信。
这并不是说这些人工智能工具永远都不好,但它们很有可能在未来成为错误信息和虚假信息的贡献者,这将很难解决。Facebook已经成功地让人们相信了各种各样的阴谋论,而一个带有谷歌(或微软,或OpenAI)名字的人工智能在某种程度上几乎肯定会为这些阴谋论做出贡献。目前,对于这些工具,我们能给出的最好建议是重新验证它们提供给您的所有信息,这很可能是未来很长一段时间内流行的建议。