Your browser does not seem to support JavaScript. As a result, your viewing experience will be diminished, and you have been placed in read-only mode.
Please download a browser that supports JavaScript, or enable it if it's disabled (i.e. NoScript).
@核桃酥 在 工作表,同步数据功能,数据过多时,执行不完,报Deadline Exceeded 中说:
在app目录下找到docker-compose.yml 编辑一下 给flow-engine服务加个环境变量 - Service.ExecTimeout=600 这个是设置为10分钟才会超时
好的,谢谢
@核桃酥 加上之后,可以看到日志上有数据,但是前台还是原来的报错。
修改完环境变量之后,在运维管理中点击这个
@核桃酥 我知道重新运行run.sh。不行呀,从数据库,同步数据才227条数据,前台就加载不出来。 我给transfer服务器增加了环境变量- Service.ExecTimeout,但是前台还是加载不出来数据。 那些同步二三十条数据的工作表加载的倒是流畅。
看一下没请求回来接口的返回,和transfer的日志,transfer里面不要加那个变量 另外你同步多少条数据会报超时那个错? 你现在是通过数据同步同步数据库的数据,然后流程表还会给月生产进度写入数据吗
@核桃酥 不是,流程节点写入的是另外一张表格。(流程节点的报错,我单独回复帖子) 现在是通过数据库同步的数据。 我把transfer加入的变量去掉了,恢复原样。日志如图。 预计200条数据以上,因为150条数据的表是正常的。
好的 该问题开发会优化一下发一个transfer版本,发版之后会在论坛回复
这个问题优化了吗
该问题预计这周会发版