0%

2025-09-08-insights

ParaThinker: Native Parallel Thinking as a New Paradigm to Scale LLM Test-time Compute

这篇工作中,作者提了一个比较有意思的视角:tunnel vision,意思是模型可以在错误context情况下,多大程度上自我改正?作者发现,错误的context越长,改正的机会越低。从这个认知出发,理论上如果做parallel形式的推理,就会获得增量的收益。因为受到tunnel vision问题的影响更小