允许用户指定要加载的自定义Docker 卷,该卷可用于在Pipeline运行之间缓存agent上的数据。...build()方法的第二个参数并将其传递给docker构建。...目前,Jenkins插件和Docker CLI都不会自动检测远程运行的服务器的文件系统;典型的症状是嵌套的sh命令出错,例如 cannot create /…...
指令1:input 该input指令允许在一个stage{…}显示提示输入等待。在inpt{…}写一些条件,然后用户触发构建这个job,但是这个时候没有接收到有效的input, job会一直在等待中,你可以在例如job #1的output console中,点击这个input条件,提供input,构建才会继续。 下面解释input{…}里面支持写那些option。 message 这个option...
(1)build步骤是由上游pipeline使用的,而upstream方式是由下游pipeline使用的。 (2)build步骤是可以带参数的,而upstream方式只是被动触发,并且没有带参数。 上游pipeline触发下游pipeline时,并没有自动带上自身的信息。所以,当下游pipeline需要使用上游pipeline的信息时,上游pipeline信息就要以参数的方式传给下游pipeline。 如...
pipeline { agent any parameters {string(name:'DEPLOY_ENV',defaultValue:'staging',description:'') } stages { stage('foo') { steps { echo"flag: ${params.userFlag}"} } } } 上面的手动触发构建一次后,就同步现在修改后的Jenkinsfile参数配置 ...
而单stage并发可让传入的参数个数去控制流程步骤,如传入S1-S18会有18个步骤,传入S1-S5就会生成5个 二、pipeline def build_docker(service) { stages = { def thing = null waitUntil { // 获取一个资源 thing = latch.pollFirst(); return thing != null; ...
下面一段代码实现了一个简单的带when的pipeline。 这个pipeline的直接结果如下。 三、currentBuild.result currentBuild.result参数能够很好的将pipeline中stage的执行结果传递出来,用来判断整个job的执行状态。代码示例如下。 执行结果如下。 四、credentials应用 ...
options:用于配置pipeline本身的选项,比如options{ retry (3) } 指定pipeline失败时重试2次。可定义在stage或pipeline部分。 parallel:并行执行多个step,在pipeline插件1.2版本后,parallel开始支持对多个阶段进行并行执行。 parameters:与input不同,是执行pipeline前传入的一些参数。 triggers:用于定义执行pipeline的触发器。
参数说明 pipeline{}:声明其内容为一个声明式的pipeline脚本,声明式流水线根节点,也是声明式流水线的开始 agent any:执行节点(job运行的slave或者master节点) stages:阶段集合,也可以理解成stage集合,所有的stage都在stages中。 stage:阶段,被stages包裹,一个stages可以有多个stage。主要定义流水线的执行过程 ...
参数: -- any:可以在任意agent上执行pipeline -- none:pipeline将不分配全局agent,每个stage分配自己的agent -- label:指定运行节点的Label -- node:自定义运行节点配置 -指定label -指定customWorkspace -- docker:控制目标节点上的docker运行相关内容