你现在的位置是:当前位置: 首页 >


如何设计一条 prompt 让 LLM 陷入死循环?

更新时间:2025-06-29 00:45:11

核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。

然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。

它的特征就是:Prompt的输出又是一条指令。

也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。

如何设计一条 prompt 让 LLM 陷入死循环?

案例推荐

case recommendation
  • FFmpeg如何利用GPU进行加速,每次都是GPU看戏CPU100%,或者说该说法有根本性错误?

    查看案例

  • 大厂后端开发需要掌握docker和k8s吗?

    查看案例

  • golang总体上有什么缺陷?

    查看案例

  • 《无畏契约》多伦多大师赛胜者组决赛WOL0 : 2撼负PRX掉入败者组决赛,如何评价这场比赛?

    查看案例

  • 为什么韩国的热辣舞团无法征服中国的男性市场??

    查看案例

  • 个人小网站是怎么防止网站被攻击的?

    查看案例

  • 导航搜索网站,推荐些推广方法哈?

    查看案例

  • 语雀后端从Node迁移到J***a说明了什么?

    查看案例