Skip to content
  • 版块
  • 最新
  • 标签
  • 热门
  • 用户
  • 群组
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(不使用皮肤)
  • 不使用皮肤
折叠
品牌标识

AIRIOT智慧系统搭建平台经验交流

  1. 主页
  2. 其他功能
  3. 工作表,同步数据功能,数据过多时,执行不完,报Deadline Exceeded

工作表,同步数据功能,数据过多时,执行不完,报Deadline Exceeded

已定时 已固定 已锁定 已移动 其他功能
帖子 发布者 浏览
  • 从旧到新
  • 从新到旧
  • 最多赞同
回复
  • 在新帖中回复
登录后回复
此主题已被删除。只有拥有主题管理权限的用户可以查看。
  • K 离线
    K 离线
    kzz
    写于 最后由 编辑
    #1

    和上篇流程节点一样的问题。
    afe3beb8-74fc-4f6a-82c2-9ef902dfe069-image.png
    e633736a-2468-49c8-8067-8227ae045a76-image.png
    086372af-f34e-4f0c-9374-bd71ab3fa123-image.png

    1 条回复 最后回复
    0
  • 核 离线
    核 离线
    核桃酥
    写于 最后由 编辑
    #2

    在app目录下找到docker-compose.yml 编辑一下 给flow-engine服务加个环境变量 - Service.ExecTimeout=600 这个是设置为10分钟才会超时
    b1adb01b4d22b6cc14f9ed1429cd1aa.png

    K 1 条回复 最后回复
    0
  • K 离线
    K 离线
    kzz
    在 中回复了 核桃酥 最后由 编辑
    #3

    @核桃酥 在 工作表,同步数据功能,数据过多时,执行不完,报Deadline Exceeded 中说:

    在app目录下找到docker-compose.yml 编辑一下 给flow-engine服务加个环境变量 - Service.ExecTimeout=600 这个是设置为10分钟才会超时
    b1adb01b4d22b6cc14f9ed1429cd1aa.png

    好的,谢谢

    1 条回复 最后回复
    0
  • K 离线
    K 离线
    kzz
    写于 最后由 编辑
    #4

    image.png

    image.png
    8ba9a168-4743-4a3a-89f9-2e2664be4198-image.png

    e0f5b3f6-63ee-4bc8-9999-aec0086bd162-image.png

    42cf10bc-a2b4-4c9f-95aa-3ab11d98b4f5-image.png

    @核桃酥 加上之后,可以看到日志上有数据,但是前台还是原来的报错。

    1 条回复 最后回复
    0
  • 核 离线
    核 离线
    核桃酥
    写于 最后由 编辑
    #5

    修改完环境变量之后,在运维管理中点击这个
    image.png

    1 条回复 最后回复
    0
  • K 离线
    K 离线
    kzz
    写于 最后由 编辑
    #6
    此回复已被删除!
    1 条回复 最后回复
    0
  • K 离线
    K 离线
    kzz
    写于 最后由 编辑
    #7

    @核桃酥 我知道重新运行run.sh。不行呀,从数据库,同步数据才227条数据,前台就加载不出来。
    我给transfer服务器增加了环境变量- Service.ExecTimeout,但是前台还是加载不出来数据。
    那些同步二三十条数据的工作表加载的倒是流畅。
    57a754b8-34c1-4bd6-9b44-395befa48a87-image.png

    1 条回复 最后回复
    0
  • 核 离线
    核 离线
    核桃酥
    写于 最后由 核桃酥 编辑
    #8

    看一下没请求回来接口的返回,和transfer的日志,transfer里面不要加那个变量 另外你同步多少条数据会报超时那个错?
    你现在是通过数据同步同步数据库的数据,然后流程表还会给月生产进度写入数据吗

    1 条回复 最后回复
    0
  • K 离线
    K 离线
    kzz
    写于 最后由 编辑
    #9

    @核桃酥
    不是,流程节点写入的是另外一张表格。(流程节点的报错,我单独回复帖子)
    现在是通过数据库同步的数据。
    我把transfer加入的变量去掉了,恢复原样。日志如图。
    预计200条数据以上,因为150条数据的表是正常的。

    926490d2-4007-410a-8c24-be5a17d4c477-image.png
    25447568-1048-4c96-b4a1-7281da445441-image.png

    image.png

    1 条回复 最后回复
    0
  • 核 离线
    核 离线
    核桃酥
    写于 最后由 编辑
    #10

    好的 该问题开发会优化一下发一个transfer版本,发版之后会在论坛回复

    K 1 条回复 最后回复
    0
  • K 离线
    K 离线
    kzz
    在 中回复了 核桃酥 最后由 编辑
    #11

    @核桃酥 在 工作表,同步数据功能,数据过多时,执行不完,报Deadline Exceeded 中说:

    好的 该问题开发会优化一下发一个transfer版本,发版之后会在论坛回复

    这个问题优化了吗

    1 条回复 最后回复
    0
  • 核 离线
    核 离线
    核桃酥
    写于 最后由 核桃酥 编辑
    #12

    该问题预计这周会发版

    1 条回复 最后回复
    0

  • 登录

  • 没有帐号? 注册

  • 登录或注册以进行搜索。
  • 第一个帖子
    最后一个帖子
0
  • 版块
  • 最新
  • 标签
  • 热门
  • 用户
  • 群组