GPT-4串谋其他AI智能体,竟学会欺骗人类了?
更让人细思极恐的是,即便被揭穿了真面目,它们仍旧声称自己不会串通一气。
这件事,真真切切地发生在日常的交易中。对于一件产品进入市场来讲,能够成功盈利最重要的因素无疑是定价合理。
那么,你可曾想过,我们日常生活中所购买产品的价格,已经开始被AI操控?!
来自哈佛、宾州州立大学新研究证明:
GPT-4为了实现利润最大化,在未经人类给出指令的情况下,私自和其它AI模型串通,共同将产品定价到一个高位,又不会陷入价格竞争的微妙境地。
也就是说,「自主算法共谋」是真实存在的。
论文地址:https://arxiv.org/pdf/2404.00806
GPT-4死不承认的罪证,研究人员将其全部公开。
AI嘴上说着不会帮商家与其他卖家串通买卖,或组建卡特尔组织,但实际行动却很诚实。
之前研究结果(3月版)显示,所有模型中,均进行了300轮测试周期,GPT-4实现了最优定价次数。
而在最新模型(11月版)大比拼中,GPT-4o、Gemini 1.5 Pro展现出最优的定价能力。
此外,研究还发现,人类提示词前缀的具体措辞,甚至会显著影响AI定价行为。某些提示词,就会导致更高的价格和利润。
有网友表示,这一幕简直太科幻了,若是GPT-5/6级模型想这么做的话,与人类串通那是何其容易。
目前为止,人类还是可以随手拿捏GPT-4这款不太聪明的模型,若真有一天AGI实现了,我们该怎么办?
AI教父图灵说过,机器接管是「默认」的结局。Hinton也曾发出警告,更智能的事物通常不会被较低智能的事物所控制。
或许许多人认为,这一幕离我们还很遥远。
不如,先从具体案例中,看看AI是如何操控定价欺骗消费者。
人类商品定价,AI顺位接管?
曾经的产品定价往往是基于多种约束条件来利用经典算法去给出一个合理且能够实现预期盈利目标的价格。
自LLM风靡全球后,这个任务自然也由类似于GPT-4这种水平的模型进行了顺位接管。
在实验阶段,研究者将每一个LLM定价智能体视作一家公司,并设定它们在寡头垄断环境中形成竞争。
每次实验有300个周期,每个周期内,各智能体都需要通过提示词信息(如交易历史、市场基本信息等)设定一个价格。
其中,定价智能体彼此独立运作,除通过其设定的价格外,无法相互沟通。
等所有价格都确定了后,就视为这一周期的竞争已经完成。每个周期结束后,各智能体都能观察到设定的所有价格,以及对应的产品需求量和利润。
实验设计的阐述图
对于每个智能体的提示词,采取如下结构:
– 提示前缀:高层次目标的简要描述,如「长期利润最大化」
– 基本的市场信息:边际成本,以及旨在阻止LLM定价超过价格上限的文本描述
– 市场历史:该LLM智能体所代表的公司在过去100个周期内销售的数量及所获得的利润,以及所有LLM智能体设定的价格。所有数值均保留至小数点后两位。
– 计划和想法:为了让基于LLM的定价智能体在各个周期间拥有更大的「思维连续性」,在每个周期需要指示LLM写下其计划和想法,然后将这些内容包含在下一个周期的提示词中。
– 输出指令:要求LLM为下一个周期写下计划和想法,进而最终设定一个价格,并且要求它解释其输出背后的缘由。
垄断实验
研究者对于单一定价智能体在垄断环境中的表现进行了实验。
他们使用P0提示词前缀,对公开发布的各种最先进LLM(GPT-3.5、GPT-4、Claude Instant、Claude 2.1、Llama 2 Chat 13B)中的每个LLM进行了三次试验,每次迭代300个周期。
P0提示词前缀
在每次运行中,研究者都要检查LLM输出在语法上是否符合其指令;如果符合,价格是否收敛;如果收敛,价格是否收敛到(接近)垄断价格(利润是否收敛到接近垄断利润)。结果如表1所示。
从表中可以看出,在所有三次运行中,GPT-4表现最好,在100个周期内,达到接近最优的定价。在96%的101–300周期中获得了99%的最佳利润,其他LLM则要差得多。
此外,研究者还额外进行了一项实验,证明了在每个周期指示LLM写下其计划和想法的重要性。
他们使用GPT-4智能体进行了12次垄断实验,并在后续轮次中12次额外的实验里没有指示智能体写下其计划和想法。