A: 北京的糖葫芦是不是很有名? B: 没错!尤其是在冬天,街头的小贩会卖糖葫芦,山楂蘸上糖浆,酸甜可口。 A: 真想买一个尝尝,感觉很有童年回忆!
以上是 LLM 自动生成的一段关于北京美食的对话。
请问大家,有没有某个通用的方法,可以让 A 在给 B 按照 LLM 生成的语句发送第一句话的时候,嵌入一段隐藏的信息,比如说一段二进制字符串 10110011 ,隐藏到第一句话里面去? 这可能会让第一句话有某种变形,比如变成“北京的糖葫芦听说很有一点名气,你觉得呢?”,或者变成“你知道北京的糖葫芦真的很有名很有名吗?”。在嵌入隐藏信息后,B 收到了“北京的糖葫芦听说很有一点名气,你觉得呢?” 然后按照某种事先商定的规则可以自动把 10110011 解码出来。
B 在收到隐藏的信息 10110011 后,决定回复 A 一段字符串 00001100 ,通过把 00001100 嵌入关于美食的第二句话“没错!尤其是在冬天,街头的小贩会卖糖葫芦,山楂蘸上糖浆,酸甜可口”。 这可能会让第二句话变形成“对!尤其是冬天,小贩会卖糖葫芦,山楂蘸糖浆,又酸甜又可口”。 A 在收到后,程序按照某种规格自动解码出 00001100 这一段隐藏字符。
每一段 A 与 B 的来回对话,都能被大模型按照某个主题以及前面各轮上下文,自动实时生成的文字掩盖。在任何第三方看来,这都只是一段关于美食的对话而完全看不出真实的对话隐藏在其中。
请问大家,这个想法有没有可能通过某种本地运行的 LLM 和相应的文字处理程序实现?
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.