1401445,1401449d1401444 < define i64 @function_6d94c7() { < dec_label_pc_6d94c7: < ret i64 undef < } < 1401452,1401456d1401446 < define i64 @function_6d94cf() { < dec_label_pc_6d94cf: < ret i64 undef < } < 1401459,1401463d1401448 < define i64 @function_6d94d7() { < dec_label_pc_6d94d7: < ret i64 undef < } < 1401466,1401470d1401450 < define i64 @function_6d94df() { < dec_label_pc_6d94df: < ret i64 undef < } < 1401479,1401483d1401458 < define i64 @function_6d94ff() { < dec_label_pc_6d94ff: < ret i64 undef < } < 1401486,1401490d1401460 < define i64 @function_6d9507() { < dec_label_pc_6d9507: < ret i64 undef < } < 1401539,1401607d1401508 < define i64 @function_6d95c4() { < dec_label_pc_6d95c4: < < ; 0x6d95c4 < store volatile i64 7181764, i64* @_asm_program_counter < %0 = load i64, i64* @rax < %1 = inttoptr i64 %0 to i8* < %2 = load i8, i8* %1 < %3 = load i64, i64* @rax < %4 = trunc i64 %3 to i8 < %5 = add i8 %2, %4 < %6 = and i8 %2, 15 < %7 = and i8 %4, 15 < %8 = add i8 %6, %7 < %9 = icmp ugt i8 %8, 15 < %10 = icmp ult i8 %5, %2 < %11 = xor i8 %2, %5 < %12 = xor i8 %4, %5 < %13 = and i8 %11, %12 < %14 = icmp slt i8 %13, 0 < store i1 %9, i1* @az < store i1 %10, i1* @cf < store i1 %14, i1* @of < %15 = icmp eq i8 %5, 0 < store i1 %15, i1* @zf < %16 = icmp slt i8 %5, 0 < store i1 %16, i1* @sf < %17 = call i8 @llvm.ctpop.i8(i8 %5) < %18 = and i8 %17, 1 < %19 = icmp eq i8 %18, 0 < store i1 %19, i1* @pf < %20 = load i64, i64* @rax < %21 = inttoptr i64 %20 to i8* < store i8 %5, i8* %21 < < ; 0x6d95c6 < store volatile i64 7181766, i64* @_asm_program_counter < %22 = load i64, i64* @rax < %23 = inttoptr i64 %22 to i8* < %24 = load i8, i8* %23 < %25 = load i64, i64* @rax < %26 = trunc i64 %25 to i8 < %27 = add i8 %24, %26 < %28 = and i8 %24, 15 < %29 = and i8 %26, 15 < %30 = add i8 %28, %29 < %31 = icmp ugt i8 %30, 15 < %32 = icmp ult i8 %27, %24 < %33 = xor i8 %24, %27 < %34 = xor i8 %26, %27 < %35 = and i8 %33, %34 < %36 = icmp slt i8 %35, 0 < store i1 %31, i1* @az < store i1 %32, i1* @cf < store i1 %36, i1* @of < %37 = icmp eq i8 %27, 0 < store i1 %37, i1* @zf < %38 = icmp slt i8 %27, 0 < store i1 %38, i1* @sf < %39 = call i8 @llvm.ctpop.i8(i8 %27) < %40 = and i8 %39, 1 < %41 = icmp eq i8 %40, 0 < store i1 %41, i1* @pf < %42 = load i64, i64* @rax < %43 = inttoptr i64 %42 to i8* < store i8 %27, i8* %43 < ret i64 undef < } < 1401610,1401678d1401510 < define i64 @function_6d95cc() { < dec_label_pc_6d95cc: < < ; 0x6d95cc < store volatile i64 7181772, i64* @_asm_program_counter < %0 = load i64, i64* @rax < %1 = inttoptr i64 %0 to i8* < %2 = load i8, i8* %1 < %3 = load i64, i64* @rax < %4 = trunc i64 %3 to i8 < %5 = add i8 %2, %4 < %6 = and i8 %2, 15 < %7 = and i8 %4, 15 < %8 = add i8 %6, %7 < %9 = icmp ugt i8 %8, 15 < %10 = icmp ult i8 %5, %2 < %11 = xor i8 %2, %5 < %12 = xor i8 %4, %5 < %13 = and i8 %11, %12 < %14 = icmp slt i8 %13, 0 < store i1 %9, i1* @az < store i1 %10, i1* @cf < store i1 %14, i1* @of < %15 = icmp eq i8 %5, 0 < store i1 %15, i1* @zf < %16 = icmp slt i8 %5, 0 < store i1 %16, i1* @sf < %17 = call i8 @llvm.ctpop.i8(i8 %5) < %18 = and i8 %17, 1 < %19 = icmp eq i8 %18, 0 < store i1 %19, i1* @pf < %20 = load i64, i64* @rax < %21 = inttoptr i64 %20 to i8* < store i8 %5, i8* %21 < < ; 0x6d95ce < store volatile i64 7181774, i64* @_asm_program_counter < %22 = load i64, i64* @rax < %23 = inttoptr i64 %22 to i8* < %24 = load i8, i8* %23 < %25 = load i64, i64* @rax < %26 = trunc i64 %25 to i8 < %27 = add i8 %24, %26 < %28 = and i8 %24, 15 < %29 = and i8 %26, 15 < %30 = add i8 %28, %29 < %31 = icmp ugt i8 %30, 15 < %32 = icmp ult i8 %27, %24 < %33 = xor i8 %24, %27 < %34 = xor i8 %26, %27 < %35 = and i8 %33, %34 < %36 = icmp slt i8 %35, 0 < store i1 %31, i1* @az < store i1 %32, i1* @cf < store i1 %36, i1* @of < %37 = icmp eq i8 %27, 0 < store i1 %37, i1* @zf < %38 = icmp slt i8 %27, 0 < store i1 %38, i1* @sf < %39 = call i8 @llvm.ctpop.i8(i8 %27) < %40 = and i8 %39, 1 < %41 = icmp eq i8 %40, 0 < store i1 %41, i1* @pf < %42 = load i64, i64* @rax < %43 = inttoptr i64 %42 to i8* < store i8 %27, i8* %43 < ret i64 undef < } < 1401681,1401749d1401512 < define i64 @function_6d95d4() { < dec_label_pc_6d95d4: < < ; 0x6d95d4 < store volatile i64 7181780, i64* @_asm_program_counter < %0 = load i64, i64* @rax < %1 = inttoptr i64 %0 to i8* < %2 = load i8, i8* %1 < %3 = load i64, i64* @rax < %4 = trunc i64 %3 to i8 < %5 = add i8 %2, %4 < %6 = and i8 %2, 15 < %7 = and i8 %4, 15 < %8 = add i8 %6, %7 < %9 = icmp ugt i8 %8, 15 < %10 = icmp ult i8 %5, %2 < %11 = xor i8 %2, %5 < %12 = xor i8 %4, %5 < %13 = and i8 %11, %12 < %14 = icmp slt i8 %13, 0 < store i1 %9, i1* @az < store i1 %10, i1* @cf < store i1 %14, i1* @of < %15 = icmp eq i8 %5, 0 < store i1 %15, i1* @zf < %16 = icmp slt i8 %5, 0 < store i1 %16, i1* @sf < %17 = call i8 @llvm.ctpop.i8(i8 %5) < %18 = and i8 %17, 1 < %19 = icmp eq i8 %18, 0 < store i1 %19, i1* @pf < %20 = load i64, i64* @rax < %21 = inttoptr i64 %20 to i8* < store i8 %5, i8* %21 < < ; 0x6d95d6 < store volatile i64 7181782, i64* @_asm_program_counter < %22 = load i64, i64* @rax < %23 = inttoptr i64 %22 to i8* < %24 = load i8, i8* %23 < %25 = load i64, i64* @rax < %26 = trunc i64 %25 to i8 < %27 = add i8 %24, %26 < %28 = and i8 %24, 15 < %29 = and i8 %26, 15 < %30 = add i8 %28, %29 < %31 = icmp ugt i8 %30, 15 < %32 = icmp ult i8 %27, %24 < %33 = xor i8 %24, %27 < %34 = xor i8 %26, %27 < %35 = and i8 %33, %34 < %36 = icmp slt i8 %35, 0 < store i1 %31, i1* @az < store i1 %32, i1* @cf < store i1 %36, i1* @of < %37 = icmp eq i8 %27, 0 < store i1 %37, i1* @zf < %38 = icmp slt i8 %27, 0 < store i1 %38, i1* @sf < %39 = call i8 @llvm.ctpop.i8(i8 %27) < %40 = and i8 %39, 1 < %41 = icmp eq i8 %40, 0 < store i1 %41, i1* @pf < %42 = load i64, i64* @rax < %43 = inttoptr i64 %42 to i8* < store i8 %27, i8* %43 < ret i64 undef < } < 1401752,1401820d1401514 < define i64 @function_6d95dc() { < dec_label_pc_6d95dc: < < ; 0x6d95dc < store volatile i64 7181788, i64* @_asm_program_counter < %0 = load i64, i64* @rax < %1 = inttoptr i64 %0 to i8* < %2 = load i8, i8* %1 < %3 = load i64, i64* @rax < %4 = trunc i64 %3 to i8 < %5 = add i8 %2, %4 < %6 = and i8 %2, 15 < %7 = and i8 %4, 15 < %8 = add i8 %6, %7 < %9 = icmp ugt i8 %8, 15 < %10 = icmp ult i8 %5, %2 < %11 = xor i8 %2, %5 < %12 = xor i8 %4, %5 < %13 = and i8 %11, %12 < %14 = icmp slt i8 %13, 0 < store i1 %9, i1* @az < store i1 %10, i1* @cf < store i1 %14, i1* @of < %15 = icmp eq i8 %5, 0 < store i1 %15, i1* @zf < %16 = icmp slt i8 %5, 0 < store i1 %16, i1* @sf < %17 = call i8 @llvm.ctpop.i8(i8 %5) < %18 = and i8 %17, 1 < %19 = icmp eq i8 %18, 0 < store i1 %19, i1* @pf < %20 = load i64, i64* @rax < %21 = inttoptr i64 %20 to i8* < store i8 %5, i8* %21 < < ; 0x6d95de < store volatile i64 7181790, i64* @_asm_program_counter < %22 = load i64, i64* @rax < %23 = inttoptr i64 %22 to i8* < %24 = load i8, i8* %23 < %25 = load i64, i64* @rax < %26 = trunc i64 %25 to i8 < %27 = add i8 %24, %26 < %28 = and i8 %24, 15 < %29 = and i8 %26, 15 < %30 = add i8 %28, %29 < %31 = icmp ugt i8 %30, 15 < %32 = icmp ult i8 %27, %24 < %33 = xor i8 %24, %27 < %34 = xor i8 %26, %27 < %35 = and i8 %33, %34 < %36 = icmp slt i8 %35, 0 < store i1 %31, i1* @az < store i1 %32, i1* @cf < store i1 %36, i1* @of < %37 = icmp eq i8 %27, 0 < store i1 %37, i1* @zf < %38 = icmp slt i8 %27, 0 < store i1 %38, i1* @sf < %39 = call i8 @llvm.ctpop.i8(i8 %27) < %40 = and i8 %39, 1 < %41 = icmp eq i8 %40, 0 < store i1 %41, i1* @pf < %42 = load i64, i64* @rax < %43 = inttoptr i64 %42 to i8* < store i8 %27, i8* %43 < ret i64 undef < } < 1401823,1401891d1401516 < define i64 @function_6d95e4() { < dec_label_pc_6d95e4: < < ; 0x6d95e4 < store volatile i64 7181796, i64* @_asm_program_counter < %0 = load i64, i64* @rax < %1 = inttoptr i64 %0 to i8* < %2 = load i8, i8* %1 < %3 = load i64, i64* @rax < %4 = trunc i64 %3 to i8 < %5 = add i8 %2, %4 < %6 = and i8 %2, 15 < %7 = and i8 %4, 15 < %8 = add i8 %6, %7 < %9 = icmp ugt i8 %8, 15 < %10 = icmp ult i8 %5, %2 < %11 = xor i8 %2, %5 < %12 = xor i8 %4, %5 < %13 = and i8 %11, %12 < %14 = icmp slt i8 %13, 0 < store i1 %9, i1* @az < store i1 %10, i1* @cf < store i1 %14, i1* @of < %15 = icmp eq i8 %5, 0 < store i1 %15, i1* @zf < %16 = icmp slt i8 %5, 0 < store i1 %16, i1* @sf < %17 = call i8 @llvm.ctpop.i8(i8 %5) < %18 = and i8 %17, 1 < %19 = icmp eq i8 %18, 0 < store i1 %19, i1* @pf < %20 = load i64, i64* @rax < %21 = inttoptr i64 %20 to i8* < store i8 %5, i8* %21 < < ; 0x6d95e6 < store volatile i64 7181798, i64* @_asm_program_counter < %22 = load i64, i64* @rax < %23 = inttoptr i64 %22 to i8* < %24 = load i8, i8* %23 < %25 = load i64, i64* @rax < %26 = trunc i64 %25 to i8 < %27 = add i8 %24, %26 < %28 = and i8 %24, 15 < %29 = and i8 %26, 15 < %30 = add i8 %28, %29 < %31 = icmp ugt i8 %30, 15 < %32 = icmp ult i8 %27, %24 < %33 = xor i8 %24, %27 < %34 = xor i8 %26, %27 < %35 = and i8 %33, %34 < %36 = icmp slt i8 %35, 0 < store i1 %31, i1* @az < store i1 %32, i1* @cf < store i1 %36, i1* @of < %37 = icmp eq i8 %27, 0 < store i1 %37, i1* @zf < %38 = icmp slt i8 %27, 0 < store i1 %38, i1* @sf < %39 = call i8 @llvm.ctpop.i8(i8 %27) < %40 = and i8 %39, 1 < %41 = icmp eq i8 %40, 0 < store i1 %41, i1* @pf < %42 = load i64, i64* @rax < %43 = inttoptr i64 %42 to i8* < store i8 %27, i8* %43 < ret i64 undef < } < 1401898,1401966d1401522 < define i64 @function_6d95fc() { < dec_label_pc_6d95fc: < < ; 0x6d95fc < store volatile i64 7181820, i64* @_asm_program_counter < %0 = load i64, i64* @rax < %1 = inttoptr i64 %0 to i8* < %2 = load i8, i8* %1 < %3 = load i64, i64* @rax < %4 = trunc i64 %3 to i8 < %5 = add i8 %2, %4 < %6 = and i8 %2, 15 < %7 = and i8 %4, 15 < %8 = add i8 %6, %7 < %9 = icmp ugt i8 %8, 15 < %10 = icmp ult i8 %5, %2 < %11 = xor i8 %2, %5 < %12 = xor i8 %4, %5 < %13 = and i8 %11, %12 < %14 = icmp slt i8 %13, 0 < store i1 %9, i1* @az < store i1 %10, i1* @cf < store i1 %14, i1* @of < %15 = icmp eq i8 %5, 0 < store i1 %15, i1* @zf < %16 = icmp slt i8 %5, 0 < store i1 %16, i1* @sf < %17 = call i8 @llvm.ctpop.i8(i8 %5) < %18 = and i8 %17, 1 < %19 = icmp eq i8 %18, 0 < store i1 %19, i1* @pf < %20 = load i64, i64* @rax < %21 = inttoptr i64 %20 to i8* < store i8 %5, i8* %21 < < ; 0x6d95fe < store volatile i64 7181822, i64* @_asm_program_counter < %22 = load i64, i64* @rax < %23 = inttoptr i64 %22 to i8* < %24 = load i8, i8* %23 < %25 = load i64, i64* @rax < %26 = trunc i64 %25 to i8 < %27 = add i8 %24, %26 < %28 = and i8 %24, 15 < %29 = and i8 %26, 15 < %30 = add i8 %28, %29 < %31 = icmp ugt i8 %30, 15 < %32 = icmp ult i8 %27, %24 < %33 = xor i8 %24, %27 < %34 = xor i8 %26, %27 < %35 = and i8 %33, %34 < %36 = icmp slt i8 %35, 0 < store i1 %31, i1* @az < store i1 %32, i1* @cf < store i1 %36, i1* @of < %37 = icmp eq i8 %27, 0 < store i1 %37, i1* @zf < %38 = icmp slt i8 %27, 0 < store i1 %38, i1* @sf < %39 = call i8 @llvm.ctpop.i8(i8 %27) < %40 = and i8 %39, 1 < %41 = icmp eq i8 %40, 0 < store i1 %41, i1* @pf < %42 = load i64, i64* @rax < %43 = inttoptr i64 %42 to i8* < store i8 %27, i8* %43 < ret i64 undef < } < 1401969,1402037d1401524 < define i64 @function_6d9604() { < dec_label_pc_6d9604: < < ; 0x6d9604 < store volatile i64 7181828, i64* @_asm_program_counter < %0 = load i64, i64* @rax < %1 = inttoptr i64 %0 to i8* < %2 = load i8, i8* %1 < %3 = load i64, i64* @rax < %4 = trunc i64 %3 to i8 < %5 = add i8 %2, %4 < %6 = and i8 %2, 15 < %7 = and i8 %4, 15 < %8 = add i8 %6, %7 < %9 = icmp ugt i8 %8, 15 < %10 = icmp ult i8 %5, %2 < %11 = xor i8 %2, %5 < %12 = xor i8 %4, %5 < %13 = and i8 %11, %12 < %14 = icmp slt i8 %13, 0 < store i1 %9, i1* @az < store i1 %10, i1* @cf < store i1 %14, i1* @of < %15 = icmp eq i8 %5, 0 < store i1 %15, i1* @zf < %16 = icmp slt i8 %5, 0 < store i1 %16, i1* @sf < %17 = call i8 @llvm.ctpop.i8(i8 %5) < %18 = and i8 %17, 1 < %19 = icmp eq i8 %18, 0 < store i1 %19, i1* @pf < %20 = load i64, i64* @rax < %21 = inttoptr i64 %20 to i8* < store i8 %5, i8* %21 < < ; 0x6d9606 < store volatile i64 7181830, i64* @_asm_program_counter < %22 = load i64, i64* @rax < %23 = inttoptr i64 %22 to i8* < %24 = load i8, i8* %23 < %25 = load i64, i64* @rax < %26 = trunc i64 %25 to i8 < %27 = add i8 %24, %26 < %28 = and i8 %24, 15 < %29 = and i8 %26, 15 < %30 = add i8 %28, %29 < %31 = icmp ugt i8 %30, 15 < %32 = icmp ult i8 %27, %24 < %33 = xor i8 %24, %27 < %34 = xor i8 %26, %27 < %35 = and i8 %33, %34 < %36 = icmp slt i8 %35, 0 < store i1 %31, i1* @az < store i1 %32, i1* @cf < store i1 %36, i1* @of < %37 = icmp eq i8 %27, 0 < store i1 %37, i1* @zf < %38 = icmp slt i8 %27, 0 < store i1 %38, i1* @sf < %39 = call i8 @llvm.ctpop.i8(i8 %27) < %40 = and i8 %39, 1 < %41 = icmp eq i8 %40, 0 < store i1 %41, i1* @pf < %42 = load i64, i64* @rax < %43 = inttoptr i64 %42 to i8* < store i8 %27, i8* %43 < ret i64 undef < } < 1402162,1402166d1401648 < define i64 @function_ffffffffffff94e5() { < dec_label_pc_ffffffffffff94e5: < ret i64 undef < } <