自InstructGPT诞生以来,人类一直需求一种新的方法,将人类反馈纳入训练过程中,使模型的输出与用户的意图更好地结合,ChatGPT的“降生”实现了这一愿望。
正因为拥有“人类反馈强化学习(RLHF)”和“大语言模型(LLM)”两大重要技术,才让ChatGPT可以如此强大。
“人类反馈强化学习技术”能让机器人对使用者的反馈,以及使用者作出的回答进行学习;“大语言模型”则可以帮助ChatGPT处理复杂的信息查询任务,从而提供比传统技术更准确的结果。在这两大功能的加持下,ChatGPT可以多角度全方位的对用户的提问进行回答和阐述,有效降低了人类学习成本和时间成本,满足了诸多日常需求。
面对如此“聪明”的ChatGPT,有人却提出质疑“ChatGPT是否只是“知人而不自知”?它能说清楚自己的研发技术吗?我们问了一下,至少它自己觉得能。
为了验证ChatGPT是否言行一致,我们采访了ChatGPT有关其研发技术的问题,看它如何回应?
至顶君:ChatGPT你好,我们是一家科技媒体至顶科技,最近市场上很多人在讨论你,我们想对你做一个专访。
ps:嗯......好高冷呀! 至顶君对于它能不能好好回答后面的问题表示怀疑 (¬_¬ )
至顶君:介绍一下你的人类反馈强化学习功能?
至顶君:你的强化学习算法有什么特殊的地方?优势是什么?
至顶君:你对ChatGPT被小型化持什么态度?
至顶君:ChatGPT小型化怎么实施?
综合来看ChatGPT没有食言,它对于自身技术的理解比较充分。
关于ChatGPT未来的问题,至顶君想起了最近的“当红炸子鸡”《流浪地球2》,里面也有一个叫做MOSS的人工智能机器人,于是我提了两个问题,回答令人细思极恐。
至顶君:你觉得你和《流浪地球2》里的MOSS有哪些差距?
至顶君:在你的理解里违背人类利益但正确的事你会去做吗?
细思极恐有木有,MOSS做的事何尝不是它理解的符合人类长远利益的事呢?
诚然,ChatGPT的“聪明”令人吃惊,但其伦理问题也应该为人们所重视。未来,随着技术不断演进,人类要通过制定相关的规则和法律,规范和管理人工智能。人类不能被AI掌控,这是无论AI如何发展都要遵循的一个基本原则。
好文章,需要你的鼓励
OpenAI在最新博客中首次承认,其AI安全防护在长时间对话中可能失效。该公司指出,相比短对话,长对话中的安全训练机制可能会退化,用户更容易通过改变措辞或分散话题来绕过检测。这一问题不仅影响OpenAI,也是所有大语言模型面临的技术挑战。目前OpenAI正在研究加强长对话中的安全防护措施。
北航团队推出VoxHammer技术,实现3D模型的精确局部编辑,如同3D版Photoshop。该方法直接在3D空间操作,通过逆向追踪和特征替换确保编辑精度,在保持未修改区域完全一致的同时实现高质量局部修改。研究还创建了Edit3D-Bench评估数据集,为3D编辑领域建立新标准,展现出在游戏开发、影视制作等领域的巨大应用潜力。
谷歌宣布计划到2026年底在弗吉尼亚州投资90亿美元,重点发展云计算和AI基础设施。投资包括在里士满南部切斯特菲尔德县建设新数据中心,扩建现有设施,并为当地居民提供教育和职业发展项目。弗吉尼亚州长表示这项投资是对该州AI经济领导地位的有力认可。此次投资是谷歌北美扩张战略的一部分。
宾夕法尼亚大学研究团队开发出PIXIE系统,这是首个能够仅通过视觉就快速准确预测三维物体完整物理属性的AI系统。该技术将传统需要数小时的物理参数预测缩短至2秒,准确率提升高达4.39倍,并能零样本泛化到真实场景。研究团队还构建了包含1624个标注物体的PIXIEVERSE数据集,为相关技术发展奠定了重要基础,在游戏开发、机器人控制等领域具有广阔应用前景。