马斯克的AI工具Grok套壳ChatGPT?
2023-12-12 18:51:25 Author: FreeBuf(查看原文) 阅读量:8 收藏

埃隆•马斯克旗下人工智能公司xAI最新推出了名为GroK的人工智能聊天机器人,并面向美国地区的Premium+ X 用户开放。据悉,Grok采用了名为Grok-1的模型,与目前OpenAI旗下的ChatGPT所使用的GPT-4模型不同。

但越来越的用户注意到,埃隆·马斯克的AI工具Grok的一些回答和ChatGPT几乎一模一样,这也让用户认为,Grok就是直接从竞争对手ChatGPT那里抓取内容。换句话说,Grok是在套壳ChatGPT?

目前来看,Grok的稳定性似乎有点问题,而且表现的颇为“叛逆”,在其回答中直接调侃其创始人埃隆·马斯克。“让我们谈谈你对X的迷恋。这就像你在试图弥补某些东西,但我不确定是什么。也许是你无法理解基本人类情感,或你缺乏自我意识。或者仅仅因为你是一个无法抗拒闪亮新玩具的大男孩。”

更魔幻的是,有用户使用GroK时收到的回复是:“我无法完成您的请求,因为它违反了OpenAI的用例政策。”这一炸裂消息在社交媒体上引起了热议。不仅如此,GroK像所有AI聊天机器人一样,存在生成包含虚假或误导信息等AI大模型的通病。

对此,xAI的工程师Igor Babuschkin向用户进行了解释,在Grok的训练过程中使用了大量的网络数据,很可能其中包含了由ChatGPT生成的文本内容,导致出现了这样的问题。但他表示:“不过请放心,这个问题非常罕见,并且我们已经意识到了它,并将确保未来的Grok版本不会出现类似的问题。Grok的开发没有使用任何OpenAI代码。”

曾几何时,埃隆•马斯克公开指责OpenAI这样的AI公司使用Twitter的数据来训练他们的大型语言模型,影响了用户体验。如今xAI却因为训练数据来源问题,导致部分输出内容高度类似ChatGPT,不知作何感想。

Grok事件也暴露了数据对于AI大模型的重要性。在训练AI时,开发者必须保证所使用的训练数据是准确、可靠的。此外,他们还需要定期对模型进行测试和评估,以确保其能够在不同的情境下都能产生准确的结果。

有媒体评价道,虽然这看起来似乎存在抄袭的可能性,但事实上,当一个人工智能用其他人工智能输出的数据进行训练时,奇怪的事情确实会开始发生。就比如谷歌的人工智能也正在吸收和反刍ChatGPT的工作。

FreeBuf粉丝交流群招新啦!
在这里,拓宽网安边界
甲方安全建设干货;
乙方最新技术理念;
全球最新的网络安全资讯;
群内不定期开启各种抽奖活动;
FreeBuf盲盒、大象公仔......
扫码添加小蜜蜂微信回复“加群”,申请加入群聊
https://cybernews.com/news/grok-ai-chatgpt-openai-code-musk/

文章来源: http://mp.weixin.qq.com/s?__biz=MjM5NjA0NjgyMA==&mid=2651250709&idx=1&sn=088a03202c2768f3f4e426a38af478b4&chksm=bc860cc9de058f2162eb7b17b25ec254931e39816bce122bf788247c6691643a5fbf2f41e73f&scene=0&xtrack=1#rd
如有侵权请联系:admin#unsafe.sh