南洋理工大学的电脑科学家利用多个人工智能聊天机器人,制定出可让这些聊天机器人互相突破开发者权限或业界俗称“越狱技术”(jailbreaking)的方式。
所谓的“越狱技术”,一般是指黑客找出并利用系统软件的漏洞,指使系统执行开发者原本限定执行的功能。
南大在声明中说,科研人员已成功让多个聊天机器人,包括:ChatGPT、谷歌的Bard和微软的Bing Chat,制作出违反开发者限定执行的内容。
此外,研究人员也让已证实可入侵聊天机器人的指令数据库接受大语言模型(large language model,LLM)训练,进而创造出可使用“越狱技术”入侵其他聊天机器人的大语言模型聊天机器人。
有关的研究报告将在明年2月,在美国举行的网络与分布式系统安全会议上发表。
研究人员希望,这个研究结果有助企业和机构意识到他们所使用的大语言模型聊天机器人的弱点和局限,以便采取步骤,防范黑客攻击。