WARNING: radv is not a conformant vulkan implementation, testing use only. shader: MESA_SHADER_VERTEX inputs: 0 outputs: 0 uniforms: 0 shared: 0 decl_var shader_in INTERP_MODE_NONE vec4 rawpos (VERT_ATTRIB_GENERIC0, 0, 0) decl_var shader_in INTERP_MODE_NONE vec3 rawnorm0 (VERT_ATTRIB_GENERIC2.xyz, 0, 0) decl_var shader_in INTERP_MODE_NONE vec2 rawtex0 (VERT_ATTRIB_GENERIC8.xy, 0, 0) decl_var shader_in INTERP_MODE_NONE vec2 rawtex1 (VERT_ATTRIB_GENERIC9.xy, 0, 0) decl_var shader_out INTERP_MODE_NONE vec4 .0 (VARYING_SLOT_POS, 0, 0) decl_var shader_out INTERP_MODE_NONE float[2] .2 (VARYING_SLOT_CLIP_DIST0.x, 0, 0) compact decl_var shader_out INTERP_MODE_NONE float vs.3 (VARYING_SLOT_VAR3.x, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.3@0 (VARYING_SLOT_VAR3.y, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.3@1 (VARYING_SLOT_VAR3.z, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.4 (VARYING_SLOT_VAR4.x, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.4@2 (VARYING_SLOT_VAR4.y, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.4@3 (VARYING_SLOT_VAR4.z, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.6 (VARYING_SLOT_VAR3.w, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.6@4 (VARYING_SLOT_VAR4.w, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.6@5 (VARYING_SLOT_VAR6.x, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.7 (VARYING_SLOT_VAR6.y, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.7@6 (VARYING_SLOT_VAR6.z, 0, 0) decl_var shader_out INTERP_MODE_NONE float vs.7@7 (VARYING_SLOT_VAR6.w, 0, 0) decl_function main returning void impl main { decl_var INTERP_MODE_NONE float vs.5 decl_var INTERP_MODE_NONE float vs.1 decl_var INTERP_MODE_NONE float vs.0 decl_var INTERP_MODE_NONE float vs.2 decl_var INTERP_MODE_NONE float vs.1@8 decl_var INTERP_MODE_NONE float vs.1@9 decl_var INTERP_MODE_NONE float vs.2@10 decl_var INTERP_MODE_NONE float vs.1@11 decl_var INTERP_MODE_NONE float vs.2@12 decl_var INTERP_MODE_NONE float vs.5@13 decl_var INTERP_MODE_NONE float vs.5@14 decl_var INTERP_MODE_NONE float vs.0@15 decl_var INTERP_MODE_NONE float vs.9 decl_var INTERP_MODE_NONE float vs.2@16 decl_var INTERP_MODE_NONE float vs.0@17 decl_var INTERP_MODE_NONE float vs.5@18 decl_var INTERP_MODE_NONE float vs.8 decl_var INTERP_MODE_NONE float vs.0@19 block block_0: /* preds: */ vec1 32 ssa_0 = load_const (0x3f800000 /* 1.000000 */) vec1 32 ssa_1 = load_const (0x3f000000 /* 0.500000 */) vec1 32 ssa_2 = load_const (0x3f7ffffe /* 1.000000 */) vec2 32 ssa_3 = load_const (0x3f800000 /* 1.000000 */, 0x3f800000 /* 1.000000 */) vec2 32 ssa_4 = load_const (0xbf800000 /* -1.000000 */, 0xbf800000 /* -1.000000 */) vec1 32 ssa_5 = load_const (0x00000000 /* 0.000000 */) vec1 32 ssa_6 = intrinsic vulkan_resource_index (ssa_5) () (0, 1) /* desc-set=0 */ /* binding=1 */ vec1 32 ssa_7 = load_const (0x00000010 /* 0.000000 */) vec4 32 ssa_8 = intrinsic load_ubo (ssa_6, ssa_7) () () vec4 32 ssa_9 = intrinsic load_var () (rawpos) () vec1 32 ssa_10 = fmul ssa_8.x, ssa_9.x vec1 32 ssa_11 = fmul ssa_8.y, ssa_9.y vec1 32 ssa_12 = fadd ssa_10, ssa_11 vec1 32 ssa_13 = fmul ssa_8.z, ssa_9.z vec1 32 ssa_14 = fadd ssa_12, ssa_13 vec1 32 ssa_15 = fmul ssa_8.w, ssa_9.w vec1 32 ssa_16 = fadd ssa_14, ssa_15 vec1 32 ssa_17 = load_const (0x00000020 /* 0.000000 */) vec4 32 ssa_18 = intrinsic load_ubo (ssa_6, ssa_17) () () vec4 32 ssa_19 = intrinsic load_var () (rawpos) () vec1 32 ssa_20 = fmul ssa_18.x, ssa_19.x vec1 32 ssa_21 = fmul ssa_18.y, ssa_19.y vec1 32 ssa_22 = fadd ssa_20, ssa_21 vec1 32 ssa_23 = fmul ssa_18.z, ssa_19.z vec1 32 ssa_24 = fadd ssa_22, ssa_23 vec1 32 ssa_25 = fmul ssa_18.w, ssa_19.w vec1 32 ssa_26 = fadd ssa_24, ssa_25 vec1 32 ssa_27 = load_const (0x00000030 /* 0.000000 */) vec4 32 ssa_28 = intrinsic load_ubo (ssa_6, ssa_27) () () vec4 32 ssa_29 = intrinsic load_var () (rawpos) () vec1 32 ssa_30 = fmul ssa_28.x, ssa_29.x vec1 32 ssa_31 = fmul ssa_28.y, ssa_29.y vec1 32 ssa_32 = fadd ssa_30, ssa_31 vec1 32 ssa_33 = fmul ssa_28.z, ssa_29.z vec1 32 ssa_34 = fadd ssa_32, ssa_33 vec1 32 ssa_35 = fmul ssa_28.w, ssa_29.w vec1 32 ssa_36 = fadd ssa_34, ssa_35 vec1 32 ssa_37 = load_const (0x00000040 /* 0.000000 */) vec4 32 ssa_38 = intrinsic load_ubo (ssa_6, ssa_37) () () vec3 32 ssa_39 = intrinsic load_var () (rawnorm0) () vec1 32 ssa_40 = fmul ssa_38.x, ssa_39.x vec1 32 ssa_41 = fmul ssa_38.y, ssa_39.y vec1 32 ssa_42 = fadd ssa_40, ssa_41 vec1 32 ssa_43 = fmul ssa_38.z, ssa_39.z vec1 32 ssa_44 = fadd ssa_42, ssa_43 vec1 32 ssa_45 = load_const (0x00000050 /* 0.000000 */) vec4 32 ssa_46 = intrinsic load_ubo (ssa_6, ssa_45) () () vec3 32 ssa_47 = intrinsic load_var () (rawnorm0) () vec1 32 ssa_48 = fmul ssa_46.x, ssa_47.x vec1 32 ssa_49 = fmul ssa_46.y, ssa_47.y vec1 32 ssa_50 = fadd ssa_48, ssa_49 vec1 32 ssa_51 = fmul ssa_46.z, ssa_47.z vec1 32 ssa_52 = fadd ssa_50, ssa_51 vec1 32 ssa_53 = load_const (0x00000060 /* 0.000000 */) vec4 32 ssa_54 = intrinsic load_ubo (ssa_6, ssa_53) () () vec3 32 ssa_55 = intrinsic load_var () (rawnorm0) () vec1 32 ssa_56 = fmul ssa_54.x, ssa_55.x vec1 32 ssa_57 = fmul ssa_54.y, ssa_55.y vec1 32 ssa_58 = fadd ssa_56, ssa_57 vec1 32 ssa_59 = fmul ssa_54.z, ssa_55.z vec1 32 ssa_60 = fadd ssa_58, ssa_59 vec1 32 ssa_61 = fmul ssa_44, ssa_44 vec1 32 ssa_62 = fmul ssa_52, ssa_52 vec1 32 ssa_63 = fadd ssa_61, ssa_62 vec1 32 ssa_64 = fmul ssa_60, ssa_60 vec1 32 ssa_65 = fadd ssa_63, ssa_64 vec1 32 ssa_66 = frsq ssa_65 vec1 32 ssa_67 = fmul ssa_44, ssa_66 vec1 32 ssa_68 = fmul ssa_52, ssa_66 vec1 32 ssa_69 = fmul ssa_60, ssa_66 vec1 32 ssa_70 = load_const (0x00000070 /* 0.000000 */) vec4 32 ssa_71 = intrinsic load_ubo (ssa_6, ssa_70) () () vec1 32 ssa_72 = fmul ssa_71.x, ssa_16 vec1 32 ssa_73 = fmul ssa_71.y, ssa_26 vec1 32 ssa_74 = fadd ssa_72, ssa_73 vec1 32 ssa_75 = fmul ssa_71.z, ssa_36 vec1 32 ssa_76 = fadd ssa_74, ssa_75 vec1 32 ssa_77 = fadd ssa_76, ssa_71.w vec1 32 ssa_78 = load_const (0x00000080 /* 0.000000 */) vec4 32 ssa_79 = intrinsic load_ubo (ssa_6, ssa_78) () () vec1 32 ssa_80 = fmul ssa_79.x, ssa_16 vec1 32 ssa_81 = fmul ssa_79.y, ssa_26 vec1 32 ssa_82 = fadd ssa_80, ssa_81 vec1 32 ssa_83 = fmul ssa_79.z, ssa_36 vec1 32 ssa_84 = fadd ssa_82, ssa_83 vec1 32 ssa_85 = fadd ssa_84, ssa_79.w vec1 32 ssa_86 = load_const (0x00000090 /* 0.000000 */) vec4 32 ssa_87 = intrinsic load_ubo (ssa_6, ssa_86) () () vec1 32 ssa_88 = fmul ssa_87.x, ssa_16 vec1 32 ssa_89 = fmul ssa_87.y, ssa_26 vec1 32 ssa_90 = fadd ssa_88, ssa_89 vec1 32 ssa_91 = fmul ssa_87.z, ssa_36 vec1 32 ssa_92 = fadd ssa_90, ssa_91 vec1 32 ssa_93 = fadd ssa_92, ssa_87.w vec1 32 ssa_94 = load_const (0x000000a0 /* 0.000000 */) vec4 32 ssa_95 = intrinsic load_ubo (ssa_6, ssa_94) () () vec1 32 ssa_96 = fmul ssa_95.x, ssa_16 vec1 32 ssa_97 = fmul ssa_95.y, ssa_26 vec1 32 ssa_98 = fadd ssa_96, ssa_97 vec1 32 ssa_99 = fmul ssa_95.z, ssa_36 vec1 32 ssa_100 = fadd ssa_98, ssa_99 vec1 32 ssa_101 = fadd ssa_100, ssa_95.w vec2 32 ssa_102 = intrinsic load_var () (rawtex0) () vec2 32 ssa_103 = intrinsic load_var () (rawtex0) () vec1 32 ssa_104 = load_const (0x00000370 /* 0.000000 */) vec4 32 ssa_105 = intrinsic load_ubo (ssa_6, ssa_104) () () vec1 32 ssa_106 = fmul ssa_102.x, ssa_105.x vec1 32 ssa_107 = fmul ssa_103.y, ssa_105.y vec1 32 ssa_108 = fadd ssa_106, ssa_107 vec1 32 ssa_109 = fadd ssa_108, ssa_105.z vec1 32 ssa_110 = fadd ssa_109, ssa_105.w vec1 32 ssa_111 = load_const (0x00000380 /* 0.000000 */) vec4 32 ssa_112 = intrinsic load_ubo (ssa_6, ssa_111) () () vec1 32 ssa_113 = fmul ssa_102.x, ssa_112.x vec1 32 ssa_114 = fmul ssa_103.y, ssa_112.y vec1 32 ssa_115 = fadd ssa_113, ssa_114 vec1 32 ssa_116 = fadd ssa_115, ssa_112.z vec1 32 ssa_117 = fadd ssa_116, ssa_112.w vec1 32 ssa_118 = load_const (0x00000af0 /* 0.000000 */) vec4 32 ssa_119 = intrinsic load_ubo (ssa_6, ssa_118) () () vec1 32 ssa_120 = load_const (0x00000b00 /* 0.000000 */) vec4 32 ssa_121 = intrinsic load_ubo (ssa_6, ssa_120) () () vec1 32 ssa_122 = load_const (0x00000b10 /* 0.000000 */) vec4 32 ssa_123 = intrinsic load_ubo (ssa_6, ssa_122) () () vec1 32 ssa_124 = fmul ssa_119.x, ssa_110 vec1 32 ssa_125 = fmul ssa_119.y, ssa_117 vec1 32 ssa_126 = fadd ssa_124, ssa_125 vec1 32 ssa_127 = fadd ssa_126, ssa_119.z vec1 32 ssa_128 = fadd ssa_127, ssa_119.w vec1 32 ssa_129 = fmul ssa_121.x, ssa_110 vec1 32 ssa_130 = fmul ssa_121.y, ssa_117 vec1 32 ssa_131 = fadd ssa_129, ssa_130 vec1 32 ssa_132 = fadd ssa_131, ssa_121.z vec1 32 ssa_133 = fadd ssa_132, ssa_121.w vec1 32 ssa_134 = fmul ssa_123.x, ssa_110 vec1 32 ssa_135 = fmul ssa_123.y, ssa_117 vec1 32 ssa_136 = fadd ssa_134, ssa_135 vec1 32 ssa_137 = fadd ssa_136, ssa_123.z vec1 32 ssa_138 = fadd ssa_137, ssa_123.w vec1 32 ssa_139 = feq ssa_138, ssa_5 vec1 32 ssa_140 = fmul ssa_128, ssa_1 vec1 32 ssa_141 = fmul ssa_133, ssa_1 vec1 32 ssa_142 = fmax ssa_140, ssa_4.x vec1 32 ssa_143 = fmax ssa_141, ssa_4.y vec1 32 ssa_144 = fmin ssa_142, ssa_3.x vec1 32 ssa_145 = fmin ssa_143, ssa_3.y vec1 32 ssa_146 = bcsel ssa_139, ssa_144, ssa_128 vec1 32 ssa_147 = bcsel ssa_139, ssa_145, ssa_133 vec2 32 ssa_148 = intrinsic load_var () (rawtex1) () vec2 32 ssa_149 = intrinsic load_var () (rawtex1) () vec1 32 ssa_150 = load_const (0x000003a0 /* 0.000000 */) vec4 32 ssa_151 = intrinsic load_ubo (ssa_6, ssa_150) () () vec1 32 ssa_152 = fmul ssa_148.x, ssa_151.x vec1 32 ssa_153 = fmul ssa_149.y, ssa_151.y vec1 32 ssa_154 = fadd ssa_152, ssa_153 vec1 32 ssa_155 = fadd ssa_154, ssa_151.z vec1 32 ssa_156 = fadd ssa_155, ssa_151.w vec1 32 ssa_157 = load_const (0x000003b0 /* 0.000000 */) vec4 32 ssa_158 = intrinsic load_ubo (ssa_6, ssa_157) () () vec1 32 ssa_159 = fmul ssa_148.x, ssa_158.x vec1 32 ssa_160 = fmul ssa_149.y, ssa_158.y vec1 32 ssa_161 = fadd ssa_159, ssa_160 vec1 32 ssa_162 = fadd ssa_161, ssa_158.z vec1 32 ssa_163 = fadd ssa_162, ssa_158.w vec1 32 ssa_164 = load_const (0x00000b20 /* 0.000000 */) vec4 32 ssa_165 = intrinsic load_ubo (ssa_6, ssa_164) () () vec1 32 ssa_166 = load_const (0x00000b30 /* 0.000000 */) vec4 32 ssa_167 = intrinsic load_ubo (ssa_6, ssa_166) () () vec1 32 ssa_168 = load_const (0x00000b40 /* 0.000000 */) vec4 32 ssa_169 = intrinsic load_ubo (ssa_6, ssa_168) () () vec1 32 ssa_170 = fmul ssa_165.x, ssa_156 vec1 32 ssa_171 = fmul ssa_165.y, ssa_163 vec1 32 ssa_172 = fadd ssa_170, ssa_171 vec1 32 ssa_173 = fadd ssa_172, ssa_165.z vec1 32 ssa_174 = fadd ssa_173, ssa_165.w vec1 32 ssa_175 = fmul ssa_167.x, ssa_156 vec1 32 ssa_176 = fmul ssa_167.y, ssa_163 vec1 32 ssa_177 = fadd ssa_175, ssa_176 vec1 32 ssa_178 = fadd ssa_177, ssa_167.z vec1 32 ssa_179 = fadd ssa_178, ssa_167.w vec1 32 ssa_180 = fmul ssa_169.x, ssa_156 vec1 32 ssa_181 = fmul ssa_169.y, ssa_163 vec1 32 ssa_182 = fadd ssa_180, ssa_181 vec1 32 ssa_183 = fadd ssa_182, ssa_169.z vec1 32 ssa_184 = fadd ssa_183, ssa_169.w vec1 32 ssa_185 = feq ssa_184, ssa_5 vec1 32 ssa_186 = fmul ssa_174, ssa_1 vec1 32 ssa_187 = fmul ssa_179, ssa_1 vec1 32 ssa_188 = fmax ssa_186, ssa_4.x vec1 32 ssa_189 = fmax ssa_187, ssa_4.y vec1 32 ssa_190 = fmin ssa_188, ssa_3.x vec1 32 ssa_191 = fmin ssa_189, ssa_3.y vec1 32 ssa_192 = bcsel ssa_185, ssa_190, ssa_174 vec1 32 ssa_193 = bcsel ssa_185, ssa_191, ssa_179 vec1 32 ssa_194 = fmul ssa_93, ssa_2 vec1 32 ssa_195 = fadd ssa_194, ssa_101 vec1 32 ssa_196 = fneg ssa_194 vec1 32 ssa_197 = load_const (0x00000ef0 /* 0.000000 */) vec1 32 ssa_198 = load_const (0x00000efc /* 0.000000 */) vec1 32 ssa_199 = intrinsic load_ubo (ssa_6, ssa_198) () () vec1 32 ssa_200 = fmul ssa_101, ssa_199 vec1 32 ssa_201 = load_const (0x00000ef8 /* 0.000000 */) vec1 32 ssa_202 = intrinsic load_ubo (ssa_6, ssa_201) () () vec1 32 ssa_203 = fmul ssa_93, ssa_202 vec1 32 ssa_204 = fneg ssa_203 vec1 32 ssa_205 = fadd ssa_200, ssa_204 vec4 32 ssa_206 = intrinsic load_ubo (ssa_6, ssa_197) () () vec1 32 ssa_207 = fneg ssa_206.y vec1 32 ssa_208 = fsign ssa_206.x vec1 32 ssa_209 = fsign ssa_207 vec1 32 ssa_210 = fmul ssa_77, ssa_208 vec1 32 ssa_211 = fmul ssa_85, ssa_209 vec1 32 ssa_212 = fmul ssa_206.x, ssa_101 vec1 32 ssa_213 = fmul ssa_206.y, ssa_101 vec1 32 ssa_214 = fneg ssa_212 vec1 32 ssa_215 = fadd ssa_210, ssa_214 vec1 32 ssa_216 = fneg ssa_213 vec1 32 ssa_217 = fadd ssa_211, ssa_216 vec1 32 ssa_218 = feq ssa_101, ssa_0 /* succs: block_1 block_2 */ if ssa_218 { block block_1: /* preds: block_0 */ vec1 32 ssa_219 = fadd ssa_215, ssa_0 vec1 32 ssa_220 = load_const (0x00000f00 /* 0.000000 */) vec1 32 ssa_221 = intrinsic load_ubo (ssa_6, ssa_220) () () vec1 32 ssa_222 = fmul ssa_221, ssa_1 vec1 32 ssa_223 = fmul ssa_219, ssa_222 vec1 32 ssa_224 = fadd ssa_217, ssa_0 vec1 32 ssa_225 = load_const (0x00000f04 /* 0.000000 */) vec1 32 ssa_226 = intrinsic load_ubo (ssa_6, ssa_225) () () vec1 32 ssa_227 = fmul ssa_226, ssa_1 vec1 32 ssa_228 = fmul ssa_224, ssa_227 vec1 32 ssa_229 = fround_even ssa_223 vec1 32 ssa_230 = fround_even ssa_228 vec1 32 ssa_231 = frcp ssa_222 vec1 32 ssa_232 = fmul ssa_229, ssa_231 vec1 32 ssa_233 = load_const (0xbf800000 /* -1.000000 */) vec1 32 ssa_234 = fadd ssa_232, ssa_233 vec1 32 ssa_235 = frcp ssa_227 vec1 32 ssa_236 = fmul ssa_230, ssa_235 vec1 32 ssa_237 = fadd ssa_236, ssa_233 /* succs: block_3 */ } else { block block_2: /* preds: block_0 */ /* succs: block_3 */ } block block_3: /* preds: block_1 block_2 */ vec1 32 ssa_238 = phi block_1: ssa_234, block_2: ssa_215 vec1 32 ssa_239 = phi block_1: ssa_237, block_2: ssa_217 intrinsic store_var (ssa_146) (vs.3) (1) /* wrmask=x */ intrinsic store_var (ssa_147) (vs.3@0) (1) /* wrmask=x */ intrinsic store_var (ssa_138) (vs.3@1) (1) /* wrmask=x */ intrinsic store_var (ssa_192) (vs.4) (1) /* wrmask=x */ intrinsic store_var (ssa_193) (vs.4@2) (1) /* wrmask=x */ intrinsic store_var (ssa_184) (vs.4@3) (1) /* wrmask=x */ intrinsic store_var (ssa_67) (vs.6) (1) /* wrmask=x */ intrinsic store_var (ssa_68) (vs.6@4) (1) /* wrmask=x */ intrinsic store_var (ssa_69) (vs.6@5) (1) /* wrmask=x */ intrinsic store_var (ssa_16) (vs.7) (1) /* wrmask=x */ intrinsic store_var (ssa_26) (vs.7@6) (1) /* wrmask=x */ intrinsic store_var (ssa_36) (vs.7@7) (1) /* wrmask=x */ intrinsic store_var (ssa_195) (.2[0]) (1) /* wrmask=x */ intrinsic store_var (ssa_196) (.2[1]) (1) /* wrmask=x */ vec1 32 ssa_240 = fneg ssa_239 vec4 32 ssa_241 = vec4 ssa_238, ssa_240, ssa_205, ssa_101 intrinsic store_var (ssa_241) (.0) (15) /* wrmask=xyzw */ /* succs: block_0 */ block block_0: } shader: MESA_SHADER_FRAGMENT inputs: 0 outputs: 0 uniforms: 0 shared: 0 decl_var uniform INTERP_MODE_NONE sampler2DArray[8] samp (0, 0, 0) decl_var shader_in INTERP_MODE_NONE vec4 gl_FragCoord (VARYING_SLOT_POS, 0, 0) decl_var shader_in INTERP_MODE_NONE float .6 (VARYING_SLOT_VAR3.w, 0, 0) decl_var shader_in INTERP_MODE_NONE float .6@0 (VARYING_SLOT_VAR4.w, 0, 0) decl_var shader_in INTERP_MODE_NONE float .6@1 (VARYING_SLOT_VAR6.x, 0, 0) decl_var shader_in INTERP_MODE_NONE float .7 (VARYING_SLOT_VAR6.y, 0, 0) decl_var shader_in INTERP_MODE_NONE float .7@2 (VARYING_SLOT_VAR6.z, 0, 0) decl_var shader_in INTERP_MODE_NONE float .7@3 (VARYING_SLOT_VAR6.w, 0, 0) decl_var shader_in INTERP_MODE_NONE float .3 (VARYING_SLOT_VAR3.x, 0, 0) decl_var shader_in INTERP_MODE_NONE float .3@4 (VARYING_SLOT_VAR3.y, 0, 0) decl_var shader_in INTERP_MODE_NONE float .3@5 (VARYING_SLOT_VAR3.z, 0, 0) decl_var shader_in INTERP_MODE_NONE float .4 (VARYING_SLOT_VAR4.x, 0, 0) decl_var shader_in INTERP_MODE_NONE float .4@6 (VARYING_SLOT_VAR4.y, 0, 0) decl_var shader_in INTERP_MODE_NONE float .4@7 (VARYING_SLOT_VAR4.z, 0, 0) decl_var shader_out INTERP_MODE_NONE vec4 ocol0 (FRAG_RESULT_DATA0, 0, 0) decl_var shader_out INTERP_MODE_NONE vec4 ocol1 (FRAG_RESULT_DATA0, 0, 0) decl_function main returning void impl main { block block_0: /* preds: */ vec1 32 ssa_0 = load_const (0x437f0000 /* 255.000000 */) vec1 32 ssa_1 = load_const (0x00000002 /* 0.000000 */) vec1 32 ssa_2 = load_const (0x00000008 /* 0.000000 */) vec1 32 ssa_3 = load_const (0x00000100 /* 0.000000 */) vec1 32 ssa_4 = load_const (0x43800000 /* 256.000000 */) vec1 32 ssa_5 = load_const (0x3f800000 /* 1.000000 */) vec1 32 ssa_6 = load_const (0x00000000 /* 0.000000 */) vec1 32 ssa_7 = load_const (0x4b800000 /* 16777216.000000 */) vec1 32 ssa_8 = load_const (0x00ffffff /* 0.000000 */) vec1 32 ssa_9 = load_const (0x000000ff /* 0.000000 */) vec1 32 ssa_10 = load_const (0x00000007 /* 0.000000 */) vec3 32 ssa_11 = load_const (0x000000ff /* 0.000000 */, 0x000000ff /* 0.000000 */, 0x000000ff /* 0.000000 */) vec3 32 ssa_12 = load_const (0x00000000 /* 0.000000 */, 0x00000000 /* 0.000000 */, 0x00000000 /* 0.000000 */) vec4 32 ssa_13 = load_const (0x000000ff /* 0.000000 */, 0x000000ff /* 0.000000 */, 0x000000ff /* 0.000000 */, 0x000000ff /* 0.000000 */) vec1 32 ssa_14 = load_const (0x000003ff /* 0.000000 */) vec1 32 ssa_15 = load_const (0xfffffc00 /* -nan */) vec4 32 ssa_16 = intrinsic load_var () (gl_FragCoord) () vec1 32 ssa_17 = intrinsic vulkan_resource_index (ssa_6) () (0, 0) /* desc-set=0 */ /* binding=0 */ vec1 32 ssa_18 = load_const (0x00000010 /* 0.000000 */) vec4 32 ssa_19 = intrinsic load_ubo (ssa_17, ssa_18) () () vec1 32 ssa_20 = intrinsic load_var () (.6) () vec1 32 ssa_21 = intrinsic load_var () (.6@0) () vec1 32 ssa_22 = intrinsic load_var () (.6@1) () vec1 32 ssa_23 = fmul ssa_20, ssa_20 vec1 32 ssa_24 = fmul ssa_21, ssa_21 vec1 32 ssa_25 = fadd ssa_23, ssa_24 vec1 32 ssa_26 = fmul ssa_22, ssa_22 vec1 32 ssa_27 = fadd ssa_25, ssa_26 vec1 32 ssa_28 = frsq ssa_27 vec1 32 ssa_29 = fmul ssa_20, ssa_28 vec1 32 ssa_30 = fmul ssa_21, ssa_28 vec1 32 ssa_31 = fmul ssa_22, ssa_28 vec1 32 ssa_32 = intrinsic load_var () (.7) () vec1 32 ssa_33 = intrinsic load_var () (.7@2) () vec1 32 ssa_34 = intrinsic load_var () (.7@3) () vec1 32 ssa_35 = intrinsic vulkan_resource_index (ssa_6) () (0, 1) /* desc-set=0 */ /* binding=1 */ vec1 32 ssa_36 = load_const (0x000000d0 /* 0.000000 */) vec4 32 ssa_37 = intrinsic load_ubo (ssa_35, ssa_36) () () vec1 32 ssa_38 = load_const (0x000000b0 /* 0.000000 */) vec4 32 ssa_39 = intrinsic load_ubo (ssa_35, ssa_38) () () vec1 32 ssa_40 = load_const (0x00000120 /* 0.000000 */) vec4 32 ssa_41 = intrinsic load_ubo (ssa_35, ssa_40) () () vec1 32 ssa_42 = fneg ssa_32 vec1 32 ssa_43 = fadd ssa_41.x, ssa_42 vec1 32 ssa_44 = fneg ssa_33 vec1 32 ssa_45 = fadd ssa_41.y, ssa_44 vec1 32 ssa_46 = fneg ssa_34 vec1 32 ssa_47 = fadd ssa_41.z, ssa_46 vec1 32 ssa_48 = fmul ssa_43, ssa_43 vec1 32 ssa_49 = fmul ssa_45, ssa_45 vec1 32 ssa_50 = fadd ssa_48, ssa_49 vec1 32 ssa_51 = fmul ssa_47, ssa_47 vec1 32 ssa_52 = fadd ssa_50, ssa_51 vec1 32 ssa_53 = fsqrt ssa_52 vec1 32 ssa_54 = frsq ssa_52 vec1 32 ssa_55 = fmul ssa_43, ssa_54 vec1 32 ssa_56 = fmul ssa_45, ssa_54 vec1 32 ssa_57 = fmul ssa_47, ssa_54 vec1 32 ssa_58 = load_const (0x00000130 /* 0.000000 */) vec4 32 ssa_59 = intrinsic load_ubo (ssa_35, ssa_58) () () vec1 32 ssa_60 = fmul ssa_55, ssa_59.x vec1 32 ssa_61 = fmul ssa_56, ssa_59.y vec1 32 ssa_62 = fadd ssa_60, ssa_61 vec1 32 ssa_63 = fmul ssa_57, ssa_59.z vec1 32 ssa_64 = fadd ssa_62, ssa_63 vec1 32 ssa_65 = fmax ssa_6, ssa_64 vec1 32 ssa_66 = intrinsic load_ubo (ssa_35, ssa_3) () () vec1 32 ssa_67 = load_const (0x00000104 /* 0.000000 */) vec1 32 ssa_68 = intrinsic load_ubo (ssa_35, ssa_67) () () vec1 32 ssa_69 = fmul ssa_68, ssa_65 vec1 32 ssa_70 = fadd ssa_66, ssa_69 vec1 32 ssa_71 = load_const (0x00000108 /* 0.000000 */) vec1 32 ssa_72 = intrinsic load_ubo (ssa_35, ssa_71) () () vec1 32 ssa_73 = fmul ssa_72, ssa_65 vec1 32 ssa_74 = fmul ssa_73, ssa_65 vec1 32 ssa_75 = fadd ssa_70, ssa_74 vec1 32 ssa_76 = fmax ssa_6, ssa_75 vec1 32 ssa_77 = load_const (0x00000110 /* 0.000000 */) vec4 32 ssa_78 = intrinsic load_ubo (ssa_35, ssa_77) () () vec1 32 ssa_79 = fmul ssa_78.y, ssa_53 vec1 32 ssa_80 = fadd ssa_78.x, ssa_79 vec1 32 ssa_81 = fmul ssa_78.z, ssa_52 vec1 32 ssa_82 = fadd ssa_80, ssa_81 vec1 32 ssa_83 = frcp ssa_82 vec1 32 ssa_84 = fmul ssa_76, ssa_83 vec1 32 ssa_85 = fmul ssa_55, ssa_29 vec1 32 ssa_86 = fmul ssa_56, ssa_30 vec1 32 ssa_87 = fadd ssa_85, ssa_86 vec1 32 ssa_88 = fmul ssa_57, ssa_31 vec1 32 ssa_89 = fadd ssa_87, ssa_88 vec1 32 ssa_90 = fmax ssa_6, ssa_89 vec1 32 ssa_91 = fmul ssa_84, ssa_90 vec1 32 ssa_92 = load_const (0x000000f0 /* 0.000000 */) vec4 32 ssa_93 = intrinsic load_ubo (ssa_35, ssa_92) () () vec1 32 ssa_94 = i2f32 ssa_93.x vec1 32 ssa_95 = i2f32 ssa_93.y vec1 32 ssa_96 = i2f32 ssa_93.z vec1 32 ssa_97 = fmul ssa_94, ssa_91 vec1 32 ssa_98 = fmul ssa_95, ssa_91 vec1 32 ssa_99 = fmul ssa_96, ssa_91 vec1 32 ssa_100 = fround_even ssa_97 vec1 32 ssa_101 = fround_even ssa_98 vec1 32 ssa_102 = fround_even ssa_99 vec1 32 ssa_103 = f2i32 ssa_100 vec1 32 ssa_104 = f2i32 ssa_101 vec1 32 ssa_105 = f2i32 ssa_102 vec1 32 ssa_106 = iadd ssa_39.x, ssa_103 vec1 32 ssa_107 = iadd ssa_39.y, ssa_104 vec1 32 ssa_108 = iadd ssa_39.z, ssa_105 vec1 32 ssa_109 = load_const (0x00000170 /* 0.000000 */) vec4 32 ssa_110 = intrinsic load_ubo (ssa_35, ssa_109) () () vec1 32 ssa_111 = fadd ssa_110.x, ssa_42 vec1 32 ssa_112 = fadd ssa_110.y, ssa_44 vec1 32 ssa_113 = fadd ssa_110.z, ssa_46 vec1 32 ssa_114 = fmul ssa_111, ssa_111 vec1 32 ssa_115 = fmul ssa_112, ssa_112 vec1 32 ssa_116 = fadd ssa_114, ssa_115 vec1 32 ssa_117 = fmul ssa_113, ssa_113 vec1 32 ssa_118 = fadd ssa_116, ssa_117 vec1 32 ssa_119 = fsqrt ssa_118 vec1 32 ssa_120 = frsq ssa_118 vec1 32 ssa_121 = fmul ssa_111, ssa_120 vec1 32 ssa_122 = fmul ssa_112, ssa_120 vec1 32 ssa_123 = fmul ssa_113, ssa_120 vec1 32 ssa_124 = load_const (0x00000180 /* 0.000000 */) vec4 32 ssa_125 = intrinsic load_ubo (ssa_35, ssa_124) () () vec1 32 ssa_126 = fmul ssa_121, ssa_125.x vec1 32 ssa_127 = fmul ssa_122, ssa_125.y vec1 32 ssa_128 = fadd ssa_126, ssa_127 vec1 32 ssa_129 = fmul ssa_123, ssa_125.z vec1 32 ssa_130 = fadd ssa_128, ssa_129 vec1 32 ssa_131 = fmax ssa_6, ssa_130 vec1 32 ssa_132 = load_const (0x00000150 /* 0.000000 */) vec1 32 ssa_133 = intrinsic load_ubo (ssa_35, ssa_132) () () vec1 32 ssa_134 = load_const (0x00000154 /* 0.000000 */) vec1 32 ssa_135 = intrinsic load_ubo (ssa_35, ssa_134) () () vec1 32 ssa_136 = fmul ssa_135, ssa_131 vec1 32 ssa_137 = fadd ssa_133, ssa_136 vec1 32 ssa_138 = load_const (0x00000158 /* 0.000000 */) vec1 32 ssa_139 = intrinsic load_ubo (ssa_35, ssa_138) () () vec1 32 ssa_140 = fmul ssa_139, ssa_131 vec1 32 ssa_141 = fmul ssa_140, ssa_131 vec1 32 ssa_142 = fadd ssa_137, ssa_141 vec1 32 ssa_143 = fmax ssa_6, ssa_142 vec1 32 ssa_144 = load_const (0x00000160 /* 0.000000 */) vec4 32 ssa_145 = intrinsic load_ubo (ssa_35, ssa_144) () () vec1 32 ssa_146 = fmul ssa_145.y, ssa_119 vec1 32 ssa_147 = fadd ssa_145.x, ssa_146 vec1 32 ssa_148 = fmul ssa_145.z, ssa_118 vec1 32 ssa_149 = fadd ssa_147, ssa_148 vec1 32 ssa_150 = frcp ssa_149 vec1 32 ssa_151 = fmul ssa_143, ssa_150 vec1 32 ssa_152 = fmul ssa_121, ssa_29 vec1 32 ssa_153 = fmul ssa_122, ssa_30 vec1 32 ssa_154 = fadd ssa_152, ssa_153 vec1 32 ssa_155 = fmul ssa_123, ssa_31 vec1 32 ssa_156 = fadd ssa_154, ssa_155 vec1 32 ssa_157 = fmax ssa_6, ssa_156 vec1 32 ssa_158 = fmul ssa_151, ssa_157 vec1 32 ssa_159 = load_const (0x00000140 /* 0.000000 */) vec4 32 ssa_160 = intrinsic load_ubo (ssa_35, ssa_159) () () vec1 32 ssa_161 = i2f32 ssa_160.x vec1 32 ssa_162 = i2f32 ssa_160.y vec1 32 ssa_163 = i2f32 ssa_160.z vec1 32 ssa_164 = fmul ssa_161, ssa_158 vec1 32 ssa_165 = fmul ssa_162, ssa_158 vec1 32 ssa_166 = fmul ssa_163, ssa_158 vec1 32 ssa_167 = fround_even ssa_164 vec1 32 ssa_168 = fround_even ssa_165 vec1 32 ssa_169 = fround_even ssa_166 vec1 32 ssa_170 = f2i32 ssa_167 vec1 32 ssa_171 = f2i32 ssa_168 vec1 32 ssa_172 = f2i32 ssa_169 vec1 32 ssa_173 = iadd ssa_106, ssa_170 vec1 32 ssa_174 = iadd ssa_107, ssa_171 vec1 32 ssa_175 = iadd ssa_108, ssa_172 vec1 32 ssa_176 = imax ssa_173, ssa_6 vec1 32 ssa_177 = imax ssa_174, ssa_6 vec1 32 ssa_178 = imax ssa_175, ssa_6 vec1 32 ssa_179 = imin ssa_176, ssa_9 vec1 32 ssa_180 = imin ssa_177, ssa_9 vec1 32 ssa_181 = imin ssa_178, ssa_9 vec1 32 ssa_182 = ishr ssa_179, ssa_10 vec1 32 ssa_183 = ishr ssa_180, ssa_10 vec1 32 ssa_184 = ishr ssa_181, ssa_10 vec1 32 ssa_185 = iadd ssa_179, ssa_182 vec1 32 ssa_186 = iadd ssa_180, ssa_183 vec1 32 ssa_187 = iadd ssa_181, ssa_184 vec1 32 ssa_188 = imul ssa_37.x, ssa_185 vec1 32 ssa_189 = imul ssa_37.y, ssa_186 vec1 32 ssa_190 = imul ssa_37.z, ssa_187 vec1 32 ssa_191 = ishl ssa_37.w, ssa_2 vec1 32 ssa_192 = ishr ssa_188, ssa_2 vec1 32 ssa_193 = ishr ssa_189, ssa_2 vec1 32 ssa_194 = ishr ssa_190, ssa_2 vec1 32 ssa_195 = ishr ssa_191, ssa_2 vec1 32 ssa_196 = i2f32 ssa_192 vec1 32 ssa_197 = i2f32 ssa_193 vec1 32 ssa_198 = i2f32 ssa_194 vec1 32 ssa_199 = i2f32 ssa_195 vec1 32 ssa_200 = load_const (0x3b808081 /* 0.003922 */) vec1 32 ssa_201 = load_const (0x000000e0 /* 0.000000 */) vec4 32 ssa_202 = intrinsic load_ubo (ssa_35, ssa_201) () () vec1 32 ssa_203 = load_const (0x000000c0 /* 0.000000 */) vec4 32 ssa_204 = intrinsic load_ubo (ssa_35, ssa_203) () () vec1 32 ssa_205 = load_const (0x000001c0 /* 0.000000 */) vec4 32 ssa_206 = intrinsic load_ubo (ssa_35, ssa_205) () () vec1 32 ssa_207 = fadd ssa_206.x, ssa_42 vec1 32 ssa_208 = fadd ssa_206.y, ssa_44 vec1 32 ssa_209 = fadd ssa_206.z, ssa_46 vec1 32 ssa_210 = fmul ssa_207, ssa_207 vec1 32 ssa_211 = fmul ssa_208, ssa_208 vec1 32 ssa_212 = fadd ssa_210, ssa_211 vec1 32 ssa_213 = fmul ssa_209, ssa_209 vec1 32 ssa_214 = fadd ssa_212, ssa_213 vec1 32 ssa_215 = frsq ssa_214 vec1 32 ssa_216 = fmul ssa_207, ssa_215 vec1 32 ssa_217 = fmul ssa_208, ssa_215 vec1 32 ssa_218 = fmul ssa_209, ssa_215 vec1 32 ssa_219 = fmul ssa_29, ssa_216 vec1 32 ssa_220 = fmul ssa_30, ssa_217 vec1 32 ssa_221 = fadd ssa_219, ssa_220 vec1 32 ssa_222 = fmul ssa_31, ssa_218 vec1 32 ssa_223 = fadd ssa_221, ssa_222 vec1 32 ssa_224 = fge ssa_223, ssa_6 /* succs: block_1 block_2 */ if ssa_224 { block block_1: /* preds: block_0 */ vec1 32 ssa_225 = load_const (0x000001d0 /* 0.000000 */) vec4 32 ssa_226 = intrinsic load_ubo (ssa_35, ssa_225) () () vec1 32 ssa_227 = fmul ssa_29, ssa_226.x vec1 32 ssa_228 = fmul ssa_30, ssa_226.y vec1 32 ssa_229 = fadd ssa_227, ssa_228 vec1 32 ssa_230 = fmul ssa_31, ssa_226.z vec1 32 ssa_231 = fadd ssa_229, ssa_230 vec1 32 ssa_232 = fmax ssa_6, ssa_231 /* succs: block_3 */ } else { block block_2: /* preds: block_0 */ /* succs: block_3 */ } block block_3: /* preds: block_1 block_2 */ vec1 32 ssa_233 = phi block_1: ssa_232, block_2: ssa_6 vec1 32 ssa_234 = load_const (0x000001a0 /* 0.000000 */) vec4 32 ssa_235 = intrinsic load_ubo (ssa_35, ssa_234) () () vec1 32 ssa_236 = load_const (0x000001b0 /* 0.000000 */) vec4 32 ssa_237 = intrinsic load_ubo (ssa_35, ssa_236) () () vec1 32 ssa_238 = fmul ssa_233, ssa_233 vec1 32 ssa_239 = fmul ssa_235.y, ssa_233 vec1 32 ssa_240 = fadd ssa_235.x, ssa_239 vec1 32 ssa_241 = fmul ssa_235.z, ssa_238 vec1 32 ssa_242 = fadd ssa_240, ssa_241 vec1 32 ssa_243 = fmax ssa_6, ssa_242 vec1 32 ssa_244 = fmul ssa_237.y, ssa_233 vec1 32 ssa_245 = fadd ssa_237.x, ssa_244 vec1 32 ssa_246 = fmul ssa_237.z, ssa_238 vec1 32 ssa_247 = fadd ssa_245, ssa_246 vec1 32 ssa_248 = frcp ssa_247 vec1 32 ssa_249 = fmul ssa_243, ssa_248 vec1 32 ssa_250 = load_const (0x00000190 /* 0.000000 */) vec4 32 ssa_251 = intrinsic load_ubo (ssa_35, ssa_250) () () vec1 32 ssa_252 = i2f32 ssa_251.x vec1 32 ssa_253 = i2f32 ssa_251.y vec1 32 ssa_254 = i2f32 ssa_251.z vec1 32 ssa_255 = fmul ssa_252, ssa_249 vec1 32 ssa_256 = fmul ssa_253, ssa_249 vec1 32 ssa_257 = fmul ssa_254, ssa_249 vec1 32 ssa_258 = fround_even ssa_255 vec1 32 ssa_259 = fround_even ssa_256 vec1 32 ssa_260 = fround_even ssa_257 vec1 32 ssa_261 = f2i32 ssa_258 vec1 32 ssa_262 = f2i32 ssa_259 vec1 32 ssa_263 = f2i32 ssa_260 vec1 32 ssa_264 = iadd ssa_204.x, ssa_261 vec1 32 ssa_265 = iadd ssa_204.y, ssa_262 vec1 32 ssa_266 = iadd ssa_204.z, ssa_263 vec1 32 ssa_267 = load_const (0x00000210 /* 0.000000 */) vec4 32 ssa_268 = intrinsic load_ubo (ssa_35, ssa_267) () () vec1 32 ssa_269 = fadd ssa_268.x, ssa_42 vec1 32 ssa_270 = fadd ssa_268.y, ssa_44 vec1 32 ssa_271 = fadd ssa_268.z, ssa_46 vec1 32 ssa_272 = fmul ssa_269, ssa_269 vec1 32 ssa_273 = fmul ssa_270, ssa_270 vec1 32 ssa_274 = fadd ssa_272, ssa_273 vec1 32 ssa_275 = fmul ssa_271, ssa_271 vec1 32 ssa_276 = fadd ssa_274, ssa_275 vec1 32 ssa_277 = frsq ssa_276 vec1 32 ssa_278 = fmul ssa_269, ssa_277 vec1 32 ssa_279 = fmul ssa_270, ssa_277 vec1 32 ssa_280 = fmul ssa_271, ssa_277 vec1 32 ssa_281 = fmul ssa_29, ssa_278 vec1 32 ssa_282 = fmul ssa_30, ssa_279 vec1 32 ssa_283 = fadd ssa_281, ssa_282 vec1 32 ssa_284 = fmul ssa_31, ssa_280 vec1 32 ssa_285 = fadd ssa_283, ssa_284 vec1 32 ssa_286 = fge ssa_285, ssa_6 /* succs: block_4 block_5 */ if ssa_286 { block block_4: /* preds: block_3 */ vec1 32 ssa_287 = load_const (0x00000220 /* 0.000000 */) vec4 32 ssa_288 = intrinsic load_ubo (ssa_35, ssa_287) () () vec1 32 ssa_289 = fmul ssa_29, ssa_288.x vec1 32 ssa_290 = fmul ssa_30, ssa_288.y vec1 32 ssa_291 = fadd ssa_289, ssa_290 vec1 32 ssa_292 = fmul ssa_31, ssa_288.z vec1 32 ssa_293 = fadd ssa_291, ssa_292 vec1 32 ssa_294 = fmax ssa_6, ssa_293 /* succs: block_6 */ } else { block block_5: /* preds: block_3 */ /* succs: block_6 */ } block block_6: /* preds: block_4 block_5 */ vec1 32 ssa_295 = phi block_4: ssa_294, block_5: ssa_6 vec1 32 ssa_296 = load_const (0x000001f0 /* 0.000000 */) vec4 32 ssa_297 = intrinsic load_ubo (ssa_35, ssa_296) () () vec1 32 ssa_298 = load_const (0x00000200 /* 0.000000 */) vec4 32 ssa_299 = intrinsic load_ubo (ssa_35, ssa_298) () () vec1 32 ssa_300 = fmul ssa_295, ssa_295 vec1 32 ssa_301 = fmul ssa_297.y, ssa_295 vec1 32 ssa_302 = fadd ssa_297.x, ssa_301 vec1 32 ssa_303 = fmul ssa_297.z, ssa_300 vec1 32 ssa_304 = fadd ssa_302, ssa_303 vec1 32 ssa_305 = fmax ssa_6, ssa_304 vec1 32 ssa_306 = fmul ssa_299.y, ssa_295 vec1 32 ssa_307 = fadd ssa_299.x, ssa_306 vec1 32 ssa_308 = fmul ssa_299.z, ssa_300 vec1 32 ssa_309 = fadd ssa_307, ssa_308 vec1 32 ssa_310 = frcp ssa_309 vec1 32 ssa_311 = fmul ssa_305, ssa_310 vec1 32 ssa_312 = load_const (0x000001e0 /* 0.000000 */) vec4 32 ssa_313 = intrinsic load_ubo (ssa_35, ssa_312) () () vec1 32 ssa_314 = i2f32 ssa_313.x vec1 32 ssa_315 = i2f32 ssa_313.y vec1 32 ssa_316 = i2f32 ssa_313.z vec1 32 ssa_317 = fmul ssa_314, ssa_311 vec1 32 ssa_318 = fmul ssa_315, ssa_311 vec1 32 ssa_319 = fmul ssa_316, ssa_311 vec1 32 ssa_320 = fround_even ssa_317 vec1 32 ssa_321 = fround_even ssa_318 vec1 32 ssa_322 = fround_even ssa_319 vec1 32 ssa_323 = f2i32 ssa_320 vec1 32 ssa_324 = f2i32 ssa_321 vec1 32 ssa_325 = f2i32 ssa_322 vec1 32 ssa_326 = iadd ssa_264, ssa_323 vec1 32 ssa_327 = iadd ssa_265, ssa_324 vec1 32 ssa_328 = iadd ssa_266, ssa_325 vec1 32 ssa_329 = imax ssa_326, ssa_6 vec1 32 ssa_330 = imax ssa_327, ssa_6 vec1 32 ssa_331 = imax ssa_328, ssa_6 vec1 32 ssa_332 = imin ssa_329, ssa_9 vec1 32 ssa_333 = imin ssa_330, ssa_9 vec1 32 ssa_334 = imin ssa_331, ssa_9 vec1 32 ssa_335 = ishr ssa_332, ssa_10 vec1 32 ssa_336 = ishr ssa_333, ssa_10 vec1 32 ssa_337 = ishr ssa_334, ssa_10 vec1 32 ssa_338 = iadd ssa_332, ssa_335 vec1 32 ssa_339 = iadd ssa_333, ssa_336 vec1 32 ssa_340 = iadd ssa_334, ssa_337 vec1 32 ssa_341 = imul ssa_202.x, ssa_338 vec1 32 ssa_342 = imul ssa_202.y, ssa_339 vec1 32 ssa_343 = imul ssa_202.z, ssa_340 vec1 32 ssa_344 = ishr ssa_341, ssa_2 vec1 32 ssa_345 = ishr ssa_342, ssa_2 vec1 32 ssa_346 = ishr ssa_343, ssa_2 vec1 32 ssa_347 = i2f32 ssa_344 vec1 32 ssa_348 = i2f32 ssa_345 vec1 32 ssa_349 = i2f32 ssa_346 vec1 32 ssa_350 = intrinsic load_var () (.3@5) () vec1 32 ssa_351 = feq ssa_350, ssa_6 vec1 32 ssa_352 = intrinsic load_var () (.3) () vec1 32 ssa_353 = intrinsic load_var () (.3@4) () vec1 32 ssa_354 = intrinsic load_var () (.3) () vec1 32 ssa_355 = intrinsic load_var () (.3@4) () vec1 32 ssa_356 = intrinsic load_var () (.3@5) () vec1 32 ssa_357 = frcp ssa_356 vec1 32 ssa_358 = fmul ssa_354, ssa_357 vec1 32 ssa_359 = fmul ssa_355, ssa_357 vec1 32 ssa_360 = bcsel ssa_351, ssa_352, ssa_358 vec1 32 ssa_361 = bcsel ssa_351, ssa_353, ssa_359 vec1 32 ssa_362 = load_const (0x00000090 /* 0.000000 */) vec4 32 ssa_363 = intrinsic load_ubo (ssa_17, ssa_362) () () vec1 32 ssa_364 = fmul ssa_360, ssa_363.z vec1 32 ssa_365 = fmul ssa_361, ssa_363.w vec1 32 ssa_366 = f2i32 ssa_364 vec1 32 ssa_367 = f2i32 ssa_365 vec1 32 ssa_368 = intrinsic load_var () (.4@7) () vec1 32 ssa_369 = feq ssa_368, ssa_6 vec1 32 ssa_370 = intrinsic load_var () (.4) () vec1 32 ssa_371 = intrinsic load_var () (.4@6) () vec1 32 ssa_372 = intrinsic load_var () (.4) () vec1 32 ssa_373 = intrinsic load_var () (.4@6) () vec1 32 ssa_374 = intrinsic load_var () (.4@7) () vec1 32 ssa_375 = frcp ssa_374 vec1 32 ssa_376 = fmul ssa_372, ssa_375 vec1 32 ssa_377 = fmul ssa_373, ssa_375 vec1 32 ssa_378 = bcsel ssa_369, ssa_370, ssa_376 vec1 32 ssa_379 = bcsel ssa_369, ssa_371, ssa_377 vec1 32 ssa_380 = load_const (0x000000a0 /* 0.000000 */) vec4 32 ssa_381 = intrinsic load_ubo (ssa_17, ssa_380) () () vec1 32 ssa_382 = fmul ssa_378, ssa_381.z vec1 32 ssa_383 = fmul ssa_379, ssa_381.w vec1 32 ssa_384 = f2i32 ssa_382 vec1 32 ssa_385 = f2i32 ssa_383 vec1 32 ssa_386 = fround_even ssa_199 vec1 32 ssa_387 = f2i32 ssa_386 vec1 32 ssa_388 = iand ssa_19.w, ssa_13.w vec1 32 ssa_389 = iand ssa_387, ssa_13.w vec1 32 ssa_390 = ishr ssa_389, ssa_10 vec1 32 ssa_391 = iadd ssa_389, ssa_390 vec1 32 ssa_392 = imul ssa_388, ssa_391 vec1 32 ssa_393 = ishr ssa_392, ssa_2 vec1 32 ssa_394 = imax ssa_393, ssa_6 vec1 32 ssa_395 = imin ssa_394, ssa_9 vec1 32 ssa_396 = fround_even ssa_196 vec1 32 ssa_397 = fround_even ssa_197 vec1 32 ssa_398 = fround_even ssa_198 vec1 32 ssa_399 = f2i32 ssa_396 vec1 32 ssa_400 = f2i32 ssa_397 vec1 32 ssa_401 = f2i32 ssa_398 vec1 32 ssa_402 = i2f32 ssa_366 vec1 32 ssa_403 = i2f32 ssa_367 vec1 32 ssa_404 = fmul ssa_402, ssa_363.x vec1 32 ssa_405 = fmul ssa_403, ssa_363.y vec3 32 ssa_406 = vec3 ssa_404, ssa_405, ssa_6 vec4 32 ssa_407 = tex ssa_406 (coord), samp[0] (texture)samp[0] (sampler) vec1 32 ssa_408 = fmul ssa_407.x, ssa_0 vec1 32 ssa_409 = fmul ssa_407.y, ssa_0 vec1 32 ssa_410 = fmul ssa_407.z, ssa_0 vec1 32 ssa_411 = fround_even ssa_408 vec1 32 ssa_412 = fround_even ssa_409 vec1 32 ssa_413 = fround_even ssa_410 vec1 32 ssa_414 = f2i32 ssa_411 vec1 32 ssa_415 = f2i32 ssa_412 vec1 32 ssa_416 = f2i32 ssa_413 vec1 32 ssa_417 = iand ssa_414, ssa_13.x vec1 32 ssa_418 = iand ssa_415, ssa_13.y vec1 32 ssa_419 = iand ssa_416, ssa_13.z vec1 32 ssa_420 = iand ssa_399, ssa_13.x vec1 32 ssa_421 = iand ssa_400, ssa_13.y vec1 32 ssa_422 = iand ssa_401, ssa_13.z vec1 32 ssa_423 = ishr ssa_420, ssa_10 vec1 32 ssa_424 = ishr ssa_421, ssa_10 vec1 32 ssa_425 = ishr ssa_422, ssa_10 vec1 32 ssa_426 = iadd ssa_420, ssa_423 vec1 32 ssa_427 = iadd ssa_421, ssa_424 vec1 32 ssa_428 = iadd ssa_422, ssa_425 vec1 32 ssa_429 = imul ssa_417, ssa_426 vec1 32 ssa_430 = imul ssa_418, ssa_427 vec1 32 ssa_431 = imul ssa_419, ssa_428 vec1 32 ssa_432 = load_const (0x00000080 /* 0.000000 */) vec1 32 ssa_433 = iadd ssa_432, ssa_429 vec1 32 ssa_434 = iadd ssa_432, ssa_430 vec1 32 ssa_435 = iadd ssa_432, ssa_431 vec1 32 ssa_436 = ishr ssa_433, ssa_2 vec1 32 ssa_437 = ishr ssa_434, ssa_2 vec1 32 ssa_438 = ishr ssa_435, ssa_2 vec1 32 ssa_439 = imax ssa_436, ssa_12.x vec1 32 ssa_440 = imax ssa_437, ssa_12.y vec1 32 ssa_441 = imax ssa_438, ssa_12.z vec1 32 ssa_442 = imin ssa_439, ssa_11.x vec1 32 ssa_443 = imin ssa_440, ssa_11.y vec1 32 ssa_444 = imin ssa_441, ssa_11.z vec1 32 ssa_445 = imax ssa_395, ssa_15 vec1 32 ssa_446 = imin ssa_445, ssa_14 vec1 32 ssa_447 = fround_even ssa_347 vec1 32 ssa_448 = fround_even ssa_348 vec1 32 ssa_449 = fround_even ssa_349 vec1 32 ssa_450 = f2i32 ssa_447 vec1 32 ssa_451 = f2i32 ssa_448 vec1 32 ssa_452 = f2i32 ssa_449 vec1 32 ssa_453 = i2f32 ssa_384 vec1 32 ssa_454 = i2f32 ssa_385 vec1 32 ssa_455 = fmul ssa_453, ssa_381.x vec1 32 ssa_456 = fmul ssa_454, ssa_381.y vec3 32 ssa_457 = vec3 ssa_455, ssa_456, ssa_6 vec4 32 ssa_458 = tex ssa_457 (coord), samp[1] (texture)samp[1] (sampler) vec1 32 ssa_459 = fmul ssa_458.x, ssa_0 vec1 32 ssa_460 = fmul ssa_458.y, ssa_0 vec1 32 ssa_461 = fmul ssa_458.z, ssa_0 vec1 32 ssa_462 = fround_even ssa_459 vec1 32 ssa_463 = fround_even ssa_460 vec1 32 ssa_464 = fround_even ssa_461 vec1 32 ssa_465 = f2i32 ssa_462 vec1 32 ssa_466 = f2i32 ssa_463 vec1 32 ssa_467 = f2i32 ssa_464 vec1 32 ssa_468 = iand ssa_465, ssa_13.x vec1 32 ssa_469 = iand ssa_466, ssa_13.y vec1 32 ssa_470 = iand ssa_467, ssa_13.z vec1 32 ssa_471 = iand ssa_450, ssa_13.x vec1 32 ssa_472 = iand ssa_451, ssa_13.y vec1 32 ssa_473 = iand ssa_452, ssa_13.z vec1 32 ssa_474 = ishr ssa_471, ssa_10 vec1 32 ssa_475 = ishr ssa_472, ssa_10 vec1 32 ssa_476 = ishr ssa_473, ssa_10 vec1 32 ssa_477 = iadd ssa_471, ssa_474 vec1 32 ssa_478 = iadd ssa_472, ssa_475 vec1 32 ssa_479 = iadd ssa_473, ssa_476 vec1 32 ssa_480 = imul ssa_468, ssa_477 vec1 32 ssa_481 = imul ssa_469, ssa_478 vec1 32 ssa_482 = imul ssa_470, ssa_479 vec1 32 ssa_483 = iadd ssa_432, ssa_480 vec1 32 ssa_484 = iadd ssa_432, ssa_481 vec1 32 ssa_485 = iadd ssa_432, ssa_482 vec1 32 ssa_486 = ishr ssa_483, ssa_2 vec1 32 ssa_487 = ishr ssa_484, ssa_2 vec1 32 ssa_488 = ishr ssa_485, ssa_2 vec1 32 ssa_489 = iadd ssa_442, ssa_486 vec1 32 ssa_490 = iadd ssa_443, ssa_487 vec1 32 ssa_491 = iadd ssa_444, ssa_488 vec1 32 ssa_492 = imax ssa_489, ssa_12.x vec1 32 ssa_493 = imax ssa_490, ssa_12.y vec1 32 ssa_494 = imax ssa_491, ssa_12.z vec1 32 ssa_495 = imin ssa_492, ssa_11.x vec1 32 ssa_496 = imin ssa_493, ssa_11.y vec1 32 ssa_497 = imin ssa_494, ssa_11.z vec1 32 ssa_498 = imax ssa_446, ssa_6 vec1 32 ssa_499 = imin ssa_498, ssa_9 vec1 32 ssa_500 = iand ssa_495, ssa_9 vec1 32 ssa_501 = iand ssa_496, ssa_9 vec1 32 ssa_502 = iand ssa_497, ssa_9 vec1 32 ssa_503 = iand ssa_499, ssa_9 vec1 32 ssa_504 = fneg ssa_16.z vec1 32 ssa_505 = fadd ssa_5, ssa_504 vec1 32 ssa_506 = fmul ssa_505, ssa_7 vec1 32 ssa_507 = f2i32 ssa_506 vec1 32 ssa_508 = imax ssa_507, ssa_6 vec1 32 ssa_509 = imin ssa_508, ssa_8 vec1 32 ssa_510 = load_const (0x000001d0 /* 0.000000 */) vec1 32 ssa_511 = intrinsic load_ubo (ssa_17, ssa_510) () () vec1 32 ssa_512 = fmul ssa_511, ssa_7 vec1 32 ssa_513 = load_const (0x000001c4 /* 0.000000 */) vec1 32 ssa_514 = intrinsic load_ubo (ssa_17, ssa_513) () () vec1 32 ssa_515 = load_const (0x000001cc /* 0.000000 */) vec1 32 ssa_516 = intrinsic load_ubo (ssa_17, ssa_515) () () vec1 32 ssa_517 = ishr ssa_509, ssa_516 vec1 32 ssa_518 = ineg ssa_517 vec1 32 ssa_519 = iadd ssa_514, ssa_518 vec1 32 ssa_520 = i2f32 ssa_519 vec1 32 ssa_521 = frcp ssa_520 vec1 32 ssa_522 = fmul ssa_512, ssa_521 vec1 32 ssa_523 = load_const (0x000001d4 /* 0.000000 */) vec1 32 ssa_524 = intrinsic load_ubo (ssa_17, ssa_523) () () vec1 32 ssa_525 = fneg ssa_524 vec1 32 ssa_526 = fadd ssa_522, ssa_525 vec1 32 ssa_527 = fmax ssa_526, ssa_6 vec1 32 ssa_528 = fmin ssa_527, ssa_5 vec1 32 ssa_529 = fmul ssa_528, ssa_4 vec1 32 ssa_530 = fround_even ssa_529 vec1 32 ssa_531 = f2i32 ssa_530 vec1 32 ssa_532 = ineg ssa_531 vec1 32 ssa_533 = iadd ssa_3, ssa_532 vec1 32 ssa_534 = imul ssa_500, ssa_533 vec1 32 ssa_535 = imul ssa_501, ssa_533 vec1 32 ssa_536 = imul ssa_502, ssa_533 vec4 32 ssa_537 = intrinsic load_ubo (ssa_17, ssa_236) () () vec1 32 ssa_538 = imul ssa_537.x, ssa_531 vec1 32 ssa_539 = imul ssa_537.y, ssa_531 vec1 32 ssa_540 = imul ssa_537.z, ssa_531 vec1 32 ssa_541 = iadd ssa_534, ssa_538 vec1 32 ssa_542 = iadd ssa_535, ssa_539 vec1 32 ssa_543 = iadd ssa_536, ssa_540 vec1 32 ssa_544 = ishr ssa_541, ssa_2 vec1 32 ssa_545 = ishr ssa_542, ssa_2 vec1 32 ssa_546 = ishr ssa_543, ssa_2 vec1 32 ssa_547 = i2f32 ssa_544 vec1 32 ssa_548 = i2f32 ssa_545 vec1 32 ssa_549 = i2f32 ssa_546 vec1 32 ssa_550 = fmul ssa_547, ssa_200 vec1 32 ssa_551 = fmul ssa_548, ssa_200 vec1 32 ssa_552 = fmul ssa_549, ssa_200 vec4 32 ssa_553 = intrinsic load_var () (ocol0) () vec4 32 ssa_554 = vec4 ssa_550, ssa_551, ssa_552, ssa_553.w intrinsic store_var (ssa_554) (ocol0) (15) /* wrmask=xyzw */ vec1 32 ssa_555 = ishr ssa_503, ssa_1 vec1 32 ssa_556 = i2f32 ssa_555 vec1 32 ssa_557 = load_const (0x3c820821 /* 0.015873 */) vec1 32 ssa_558 = fmul ssa_556, ssa_557 vec4 32 ssa_559 = intrinsic load_var () (ocol0) () vec4 32 ssa_560 = vec4 ssa_559.x, ssa_559.y, ssa_559.z, ssa_558 intrinsic store_var (ssa_560) (ocol0) (15) /* wrmask=xyzw */ vec1 32 ssa_561 = i2f32 ssa_503 vec1 32 ssa_562 = fmul ssa_561, ssa_200 vec4 32 ssa_563 = intrinsic load_var () (ocol1) () vec4 32 ssa_564 = vec4 ssa_563.x, ssa_563.y, ssa_563.z, ssa_562 intrinsic store_var (ssa_564) (ocol1) (15) /* wrmask=xyzw */ /* succs: block_0 */ block block_0: } ; ModuleID = 'shader' source_filename = "shader" target datalayout = "e-p:32:32-p1:64:64-p2:64:64-p3:32:32-p4:64:64-p5:32:32-i64:64-v16:16-v24:32-v32:32-v48:64-v96:128-v192:256-v256:256-v512:512-v1024:1024-v2048:2048-n32:64" target triple = "amdgcn-mesa-mesa3d" define amdgpu_ps void @main([1048576 x i8] addrspace(2)* byval dereferenceable(18446744073709551615), [1048576 x i8] addrspace(2)* byval dereferenceable(18446744073709551615), [1048576 x i8] addrspace(2)* byval dereferenceable(18446744073709551615), [1048576 x i8] addrspace(2)* byval dereferenceable(18446744073709551615), i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, i32, i32, i32, i32) { main_body: %21 = bitcast <2 x i32> %6 to <2 x float> %22 = extractelement <2 x float> %21, i32 0 %23 = extractelement <2 x float> %21, i32 1 %24 = call float @llvm.amdgcn.interp.p1(float %22, i32 0, i32 0, i32 %4) #1 %25 = call float @llvm.amdgcn.interp.p2(float %24, float %23, i32 0, i32 0, i32 %4) #1 %26 = call float @llvm.amdgcn.interp.p1(float %22, i32 1, i32 0, i32 %4) #1 %27 = call float @llvm.amdgcn.interp.p2(float %26, float %23, i32 1, i32 0, i32 %4) #1 %28 = call float @llvm.amdgcn.interp.p1(float %22, i32 2, i32 0, i32 %4) #1 %29 = call float @llvm.amdgcn.interp.p2(float %28, float %23, i32 2, i32 0, i32 %4) #1 %30 = call float @llvm.amdgcn.interp.p1(float %22, i32 3, i32 0, i32 %4) #1 %31 = call float @llvm.amdgcn.interp.p2(float %30, float %23, i32 3, i32 0, i32 %4) #1 %32 = bitcast <2 x i32> %6 to <2 x float> %33 = extractelement <2 x float> %32, i32 0 %34 = extractelement <2 x float> %32, i32 1 %35 = call float @llvm.amdgcn.interp.p1(float %33, i32 0, i32 1, i32 %4) #1 %36 = call float @llvm.amdgcn.interp.p2(float %35, float %34, i32 0, i32 1, i32 %4) #1 %37 = call float @llvm.amdgcn.interp.p1(float %33, i32 1, i32 1, i32 %4) #1 %38 = call float @llvm.amdgcn.interp.p2(float %37, float %34, i32 1, i32 1, i32 %4) #1 %39 = call float @llvm.amdgcn.interp.p1(float %33, i32 2, i32 1, i32 %4) #1 %40 = call float @llvm.amdgcn.interp.p2(float %39, float %34, i32 2, i32 1, i32 %4) #1 %41 = call float @llvm.amdgcn.interp.p1(float %33, i32 3, i32 1, i32 %4) #1 %42 = call float @llvm.amdgcn.interp.p2(float %41, float %34, i32 3, i32 1, i32 %4) #1 %43 = bitcast <2 x i32> %6 to <2 x float> %44 = extractelement <2 x float> %43, i32 0 %45 = extractelement <2 x float> %43, i32 1 %46 = call float @llvm.amdgcn.interp.p1(float %44, i32 0, i32 2, i32 %4) #1 %47 = call float @llvm.amdgcn.interp.p2(float %46, float %45, i32 0, i32 2, i32 %4) #1 %48 = call float @llvm.amdgcn.interp.p1(float %44, i32 1, i32 2, i32 %4) #1 %49 = call float @llvm.amdgcn.interp.p2(float %48, float %45, i32 1, i32 2, i32 %4) #1 %50 = call float @llvm.amdgcn.interp.p1(float %44, i32 2, i32 2, i32 %4) #1 %51 = call float @llvm.amdgcn.interp.p2(float %50, float %45, i32 2, i32 2, i32 %4) #1 %52 = call float @llvm.amdgcn.interp.p1(float %44, i32 3, i32 2, i32 %4) #1 %53 = call float @llvm.amdgcn.interp.p2(float %52, float %45, i32 3, i32 2, i32 %4) #1 %54 = bitcast [1048576 x i8] addrspace(2)* %3 to <4 x i32> addrspace(2)*, !amdgpu.uniform !0 %55 = load <4 x i32>, <4 x i32> addrspace(2)* %54, align 16, !invariant.load !0 %56 = call float @llvm.SI.load.const.v4i32(<4 x i32> %55, i32 28) %57 = fmul float %31, %31 %58 = fmul float %42, %42 %59 = fadd float %57, %58 %60 = fmul float %47, %47 %61 = fadd float %59, %60 %62 = call float @llvm.sqrt.f32(float %61) #1 %63 = fdiv float 1.000000e+00, %62, !fpmath !1 %64 = fmul float %31, %63 %65 = fmul float %42, %63 %66 = fmul float %47, %63 %67 = getelementptr [1048576 x i8], [1048576 x i8] addrspace(2)* %3, i64 0, i64 16 %68 = bitcast i8 addrspace(2)* %67 to <4 x i32> addrspace(2)*, !amdgpu.uniform !0 %69 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %70 = call float @llvm.SI.load.const.v4i32(<4 x i32> %69, i32 208) %71 = call float @llvm.SI.load.const.v4i32(<4 x i32> %69, i32 212) %72 = call float @llvm.SI.load.const.v4i32(<4 x i32> %69, i32 216) %73 = call float @llvm.SI.load.const.v4i32(<4 x i32> %69, i32 220) %74 = call float @llvm.SI.load.const.v4i32(<4 x i32> %69, i32 176) %75 = call float @llvm.SI.load.const.v4i32(<4 x i32> %69, i32 180) %76 = call float @llvm.SI.load.const.v4i32(<4 x i32> %69, i32 184) %77 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %78 = call float @llvm.SI.load.const.v4i32(<4 x i32> %77, i32 288) %79 = call float @llvm.SI.load.const.v4i32(<4 x i32> %77, i32 292) %80 = call float @llvm.SI.load.const.v4i32(<4 x i32> %77, i32 296) %81 = fsub float %78, %49 %82 = fsub float %79, %51 %83 = fsub float %80, %53 %84 = fmul float %81, %81 %85 = fmul float %82, %82 %86 = fadd float %84, %85 %87 = fmul float %83, %83 %88 = fadd float %86, %87 %89 = call float @llvm.sqrt.f32(float %88) #1 %90 = call float @llvm.sqrt.f32(float %88) #1 %91 = fdiv float 1.000000e+00, %90, !fpmath !1 %92 = fmul float %81, %91 %93 = fmul float %82, %91 %94 = fmul float %83, %91 %95 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %96 = call float @llvm.SI.load.const.v4i32(<4 x i32> %95, i32 304) %97 = call float @llvm.SI.load.const.v4i32(<4 x i32> %95, i32 308) %98 = call float @llvm.SI.load.const.v4i32(<4 x i32> %95, i32 312) %99 = fmul float %92, %96 %100 = fmul float %93, %97 %101 = fadd float %99, %100 %102 = fmul float %94, %98 %103 = fadd float %101, %102 %104 = call float @llvm.maxnum.f32(float %103, float 0.000000e+00) #1 %105 = call float @llvm.canonicalize.f32(float %104) #1 %106 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %107 = call float @llvm.SI.load.const.v4i32(<4 x i32> %106, i32 256) %108 = call float @llvm.SI.load.const.v4i32(<4 x i32> %106, i32 260) %109 = fmul float %108, %105 %110 = fadd float %107, %109 %111 = call float @llvm.SI.load.const.v4i32(<4 x i32> %106, i32 264) %112 = fmul float %111, %105 %113 = fmul float %112, %105 %114 = fadd float %110, %113 %115 = call float @llvm.maxnum.f32(float %114, float 0.000000e+00) #1 %116 = call float @llvm.canonicalize.f32(float %115) #1 %117 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %118 = call float @llvm.SI.load.const.v4i32(<4 x i32> %117, i32 272) %119 = call float @llvm.SI.load.const.v4i32(<4 x i32> %117, i32 276) %120 = call float @llvm.SI.load.const.v4i32(<4 x i32> %117, i32 280) %121 = fmul float %119, %89 %122 = fadd float %118, %121 %123 = fmul float %120, %88 %124 = fadd float %122, %123 %125 = fdiv float 1.000000e+00, %124, !fpmath !1 %126 = fmul float %116, %125 %127 = fmul float %92, %64 %128 = fmul float %93, %65 %129 = fadd float %127, %128 %130 = fmul float %94, %66 %131 = fadd float %129, %130 %132 = call float @llvm.maxnum.f32(float %131, float 0.000000e+00) #1 %133 = call float @llvm.canonicalize.f32(float %132) #1 %134 = fmul float %126, %133 %135 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %136 = call float @llvm.SI.load.const.v4i32(<4 x i32> %135, i32 240) %137 = call float @llvm.SI.load.const.v4i32(<4 x i32> %135, i32 244) %138 = call float @llvm.SI.load.const.v4i32(<4 x i32> %135, i32 248) %139 = bitcast float %136 to i32 %140 = sitofp i32 %139 to float %141 = bitcast float %137 to i32 %142 = sitofp i32 %141 to float %143 = bitcast float %138 to i32 %144 = sitofp i32 %143 to float %145 = fmul float %134, %140 %146 = fmul float %134, %142 %147 = fmul float %134, %144 %148 = call float @llvm.rint.f32(float %145) #1 %149 = call float @llvm.rint.f32(float %146) #1 %150 = call float @llvm.rint.f32(float %147) #1 %151 = fptosi float %148 to i32 %152 = fptosi float %149 to i32 %153 = fptosi float %150 to i32 %154 = bitcast float %74 to i32 %155 = add i32 %154, %151 %156 = bitcast float %75 to i32 %157 = add i32 %156, %152 %158 = bitcast float %76 to i32 %159 = add i32 %158, %153 %160 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %161 = call float @llvm.SI.load.const.v4i32(<4 x i32> %160, i32 368) %162 = call float @llvm.SI.load.const.v4i32(<4 x i32> %160, i32 372) %163 = call float @llvm.SI.load.const.v4i32(<4 x i32> %160, i32 376) %164 = fsub float %161, %49 %165 = fsub float %162, %51 %166 = fsub float %163, %53 %167 = fmul float %164, %164 %168 = fmul float %165, %165 %169 = fadd float %167, %168 %170 = fmul float %166, %166 %171 = fadd float %169, %170 %172 = call float @llvm.sqrt.f32(float %171) #1 %173 = call float @llvm.sqrt.f32(float %171) #1 %174 = fdiv float 1.000000e+00, %173, !fpmath !1 %175 = fmul float %164, %174 %176 = fmul float %165, %174 %177 = fmul float %166, %174 %178 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %179 = call float @llvm.SI.load.const.v4i32(<4 x i32> %178, i32 384) %180 = call float @llvm.SI.load.const.v4i32(<4 x i32> %178, i32 388) %181 = call float @llvm.SI.load.const.v4i32(<4 x i32> %178, i32 392) %182 = fmul float %175, %179 %183 = fmul float %176, %180 %184 = fadd float %182, %183 %185 = fmul float %177, %181 %186 = fadd float %184, %185 %187 = call float @llvm.maxnum.f32(float %186, float 0.000000e+00) #1 %188 = call float @llvm.canonicalize.f32(float %187) #1 %189 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %190 = call float @llvm.SI.load.const.v4i32(<4 x i32> %189, i32 336) %191 = call float @llvm.SI.load.const.v4i32(<4 x i32> %189, i32 340) %192 = fmul float %191, %188 %193 = fadd float %190, %192 %194 = call float @llvm.SI.load.const.v4i32(<4 x i32> %189, i32 344) %195 = fmul float %194, %188 %196 = fmul float %195, %188 %197 = fadd float %193, %196 %198 = call float @llvm.maxnum.f32(float %197, float 0.000000e+00) #1 %199 = call float @llvm.canonicalize.f32(float %198) #1 %200 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %201 = call float @llvm.SI.load.const.v4i32(<4 x i32> %200, i32 352) %202 = call float @llvm.SI.load.const.v4i32(<4 x i32> %200, i32 356) %203 = call float @llvm.SI.load.const.v4i32(<4 x i32> %200, i32 360) %204 = fmul float %202, %172 %205 = fadd float %201, %204 %206 = fmul float %203, %171 %207 = fadd float %205, %206 %208 = fdiv float 1.000000e+00, %207, !fpmath !1 %209 = fmul float %199, %208 %210 = fmul float %175, %64 %211 = fmul float %176, %65 %212 = fadd float %210, %211 %213 = fmul float %177, %66 %214 = fadd float %212, %213 %215 = call float @llvm.maxnum.f32(float %214, float 0.000000e+00) #1 %216 = call float @llvm.canonicalize.f32(float %215) #1 %217 = fmul float %209, %216 %218 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %219 = call float @llvm.SI.load.const.v4i32(<4 x i32> %218, i32 320) %220 = call float @llvm.SI.load.const.v4i32(<4 x i32> %218, i32 324) %221 = call float @llvm.SI.load.const.v4i32(<4 x i32> %218, i32 328) %222 = bitcast float %219 to i32 %223 = sitofp i32 %222 to float %224 = bitcast float %220 to i32 %225 = sitofp i32 %224 to float %226 = bitcast float %221 to i32 %227 = sitofp i32 %226 to float %228 = fmul float %217, %223 %229 = fmul float %217, %225 %230 = fmul float %217, %227 %231 = call float @llvm.rint.f32(float %228) #1 %232 = call float @llvm.rint.f32(float %229) #1 %233 = call float @llvm.rint.f32(float %230) #1 %234 = fptosi float %231 to i32 %235 = fptosi float %232 to i32 %236 = fptosi float %233 to i32 %237 = add i32 %155, %234 %238 = add i32 %157, %235 %239 = add i32 %159, %236 %240 = icmp sgt i32 %237, 0 %241 = select i1 %240, i32 %237, i32 0 %242 = icmp sgt i32 %238, 0 %243 = select i1 %242, i32 %238, i32 0 %244 = icmp sgt i32 %239, 0 %245 = select i1 %244, i32 %239, i32 0 %246 = icmp slt i32 %241, 255 %247 = select i1 %246, i32 %241, i32 255 %248 = icmp slt i32 %243, 255 %249 = select i1 %248, i32 %243, i32 255 %250 = icmp slt i32 %245, 255 %251 = select i1 %250, i32 %245, i32 255 %252 = lshr i32 %247, 7 %253 = lshr i32 %249, 7 %254 = lshr i32 %251, 7 %255 = add nuw nsw i32 %247, %252 %256 = add nuw nsw i32 %249, %253 %257 = add nuw nsw i32 %251, %254 %258 = bitcast float %70 to i32 %259 = mul i32 %255, %258 %260 = bitcast float %71 to i32 %261 = mul i32 %256, %260 %262 = bitcast float %72 to i32 %263 = mul i32 %257, %262 %264 = bitcast float %73 to i32 %265 = shl i32 %264, 8 %266 = ashr i32 %259, 8 %267 = ashr i32 %261, 8 %268 = ashr i32 %263, 8 %269 = ashr exact i32 %265, 8 %270 = sitofp i32 %266 to float %271 = sitofp i32 %267 to float %272 = sitofp i32 %268 to float %273 = sitofp i32 %269 to float %274 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %275 = call float @llvm.SI.load.const.v4i32(<4 x i32> %274, i32 224) %276 = call float @llvm.SI.load.const.v4i32(<4 x i32> %274, i32 228) %277 = call float @llvm.SI.load.const.v4i32(<4 x i32> %274, i32 232) %278 = call float @llvm.SI.load.const.v4i32(<4 x i32> %274, i32 192) %279 = call float @llvm.SI.load.const.v4i32(<4 x i32> %274, i32 196) %280 = call float @llvm.SI.load.const.v4i32(<4 x i32> %274, i32 200) %281 = load <4 x i32>, <4 x i32> addrspace(2)* %68, align 16, !invariant.load !0 %282 = call float @llvm.SI.load.const.v4i32(<4 x i32> %281, i32 448) %283 = call float @llvm.SI.load.const.v4i32(<4 x i32> %281, i32 452) %284 = call float @llvm.SI.load.const.v4i32(<4 x i32> %281, i32 456) %285 = fsub float %282, %49 %286 = fsub float %283, %51 %287 = fsub float %284, %53 %288 = fmul float %285, %285 %289 = fmul float %286, %286 %290 = fadd float %288, %289 %291 = fmul float %287, %287 %292 = fadd float %290, %291 %293 = call float @llvm.sqrt.f32(float %292) #1 %294 = fdiv float 1.000000e+00, %293, !fpmath !1 %295 = fmul float %285, %294 %296 = fmul float %286, %294 %297 = fmul float %287, %294 %298 = fmul float %64, %295 %299 = fmul float %65, %296 %300 = fadd float %298, %299 %301 = fmul float %66, %297 %302 = fadd float %300, %301 %303 = fcmp ult float %302, 0.000000e+00 br i1 %303, label %304, label %377 ;