しかしまあLLMが続きを予測して生成するものなんですよ、っていうのはAPIを触ると納得するほかないんだけど、「えっじゃああのプロダクトはいったいどうやって、ここまでのコンテキストをこんな上手に管理してるの!?」という驚きが生まれるわけなんだよな Openclawとかcodexとかどうしてんの?
しかしまあLLMが続きを予測して生成するものなんですよ、っていうのはAPIを触ると納得するほかないんだけど、「えっじゃああのプロダクトはいったいどうやって、ここまでのコンテキストをこんな上手に管理してるの!?」という驚きが生まれるわけなんだよな Openclawとかcodexとかどうしてんの?