- simplied code by removing a goto
[libfirm] / ir / be / ia32 / bearch_ia32.c
index 01fa57a..9cf6a01 100644 (file)
@@ -107,19 +107,14 @@ ia32_code_gen_t *ia32_current_cg = NULL;
 static ia32_intrinsic_env_t intrinsic_env = {
        NULL,    /* the isa */
        NULL,    /* the irg, these entities belong to */
-       NULL,    /* entity for first div operand (move into FPU) */
-       NULL,    /* entity for second div operand (move into FPU) */
-       NULL,    /* entity for converts ll -> d */
-       NULL,    /* entity for converts d -> ll */
        NULL,    /* entity for __divdi3 library call */
        NULL,    /* entity for __moddi3 library call */
        NULL,    /* entity for __udivdi3 library call */
        NULL,    /* entity for __umoddi3 library call */
-       NULL,    /* bias value for conversion from float to unsigned 64 */
 };
 
 
-typedef ir_node *(*create_const_node_func) (dbg_info *dbg, ir_graph *irg, ir_node *block);
+typedef ir_node *(*create_const_node_func) (dbg_info *dbg, ir_node *block);
 
 static inline ir_node *create_const(ia32_code_gen_t *cg, ir_node **place,
                                     create_const_node_func func,
@@ -131,7 +126,7 @@ static inline ir_node *create_const(ia32_code_gen_t *cg, ir_node **place,
                return *place;
 
        block = get_irg_start_block(cg->irg);
-       res = func(NULL, cg->irg, block);
+       res = func(NULL, block);
        arch_set_irn_register(res, reg);
        *place = res;
 
@@ -143,37 +138,37 @@ static inline ir_node *create_const(ia32_code_gen_t *cg, ir_node **place,
 
 /* Creates the unique per irg GP NoReg node. */
 ir_node *ia32_new_NoReg_gp(ia32_code_gen_t *cg) {
-       return create_const(cg, &cg->noreg_gp, new_rd_ia32_NoReg_GP,
+       return create_const(cg, &cg->noreg_gp, new_bd_ia32_NoReg_GP,
                            &ia32_gp_regs[REG_GP_NOREG]);
 }
 
 ir_node *ia32_new_NoReg_vfp(ia32_code_gen_t *cg) {
-       return create_const(cg, &cg->noreg_vfp, new_rd_ia32_NoReg_VFP,
+       return create_const(cg, &cg->noreg_vfp, new_bd_ia32_NoReg_VFP,
                            &ia32_vfp_regs[REG_VFP_NOREG]);
 }
 
 ir_node *ia32_new_NoReg_xmm(ia32_code_gen_t *cg) {
-       return create_const(cg, &cg->noreg_xmm, new_rd_ia32_NoReg_XMM,
+       return create_const(cg, &cg->noreg_xmm, new_bd_ia32_NoReg_XMM,
                            &ia32_xmm_regs[REG_XMM_NOREG]);
 }
 
 ir_node *ia32_new_Unknown_gp(ia32_code_gen_t *cg) {
-       return create_const(cg, &cg->unknown_gp, new_rd_ia32_Unknown_GP,
+       return create_const(cg, &cg->unknown_gp, new_bd_ia32_Unknown_GP,
                            &ia32_gp_regs[REG_GP_UKNWN]);
 }
 
 ir_node *ia32_new_Unknown_vfp(ia32_code_gen_t *cg) {
-       return create_const(cg, &cg->unknown_vfp, new_rd_ia32_Unknown_VFP,
+       return create_const(cg, &cg->unknown_vfp, new_bd_ia32_Unknown_VFP,
                            &ia32_vfp_regs[REG_VFP_UKNWN]);
 }
 
 ir_node *ia32_new_Unknown_xmm(ia32_code_gen_t *cg) {
-       return create_const(cg, &cg->unknown_xmm, new_rd_ia32_Unknown_XMM,
+       return create_const(cg, &cg->unknown_xmm, new_bd_ia32_Unknown_XMM,
                            &ia32_xmm_regs[REG_XMM_UKNWN]);
 }
 
 ir_node *ia32_new_Fpu_truncate(ia32_code_gen_t *cg) {
-       return create_const(cg, &cg->fpu_trunc_mode, new_rd_ia32_ChangeCW,
+       return create_const(cg, &cg->fpu_trunc_mode, new_bd_ia32_ChangeCW,
                         &ia32_fp_cw_regs[REG_FPCW]);
 }
 
@@ -355,7 +350,7 @@ static const arch_register_t *ia32_abi_prologue(void *self, ir_node **mem, pmap
                                get_Proj_proj(curr_bp), arch_env->bp, arch_register_req_type_ignore);
 
                /* push ebp */
-               push    = new_rd_ia32_Push(NULL, irg, bl, noreg, noreg, *mem, curr_bp, curr_sp);
+               push    = new_bd_ia32_Push(NULL, bl, noreg, noreg, *mem, curr_bp, curr_sp);
                curr_sp = new_r_Proj(irg, bl, push, get_irn_mode(curr_sp), pn_ia32_Push_stack);
                *mem    = new_r_Proj(irg, bl, push, mode_M, pn_ia32_Push_M);
 
@@ -412,7 +407,7 @@ static void ia32_abi_epilogue(void *self, ir_node *bl, ir_node **mem, pmap *reg_
                        ir_node *leave;
 
                        /* leave */
-                       leave   = new_rd_ia32_Leave(NULL, irg, bl, curr_bp);
+                       leave   = new_bd_ia32_Leave(NULL, bl, curr_bp);
                        curr_bp = new_r_Proj(irg, bl, leave, mode_bp, pn_ia32_Leave_frame);
                        curr_sp = new_r_Proj(irg, bl, leave, get_irn_mode(curr_sp), pn_ia32_Leave_stack);
                } else {
@@ -429,7 +424,7 @@ static void ia32_abi_epilogue(void *self, ir_node *bl, ir_node **mem, pmap *reg_
                                                         arch_register_req_type_ignore);
 
                        /* pop ebp */
-                       pop     = new_rd_ia32_PopEbp(NULL, env->irg, bl, *mem, curr_sp);
+                       pop     = new_bd_ia32_PopEbp(NULL, bl, *mem, curr_sp);
                        curr_bp = new_r_Proj(irg, bl, pop, mode_bp, pn_ia32_Pop_res);
                        curr_sp = new_r_Proj(irg, bl, pop, get_irn_mode(curr_sp), pn_ia32_Pop_stack);
 
@@ -570,7 +565,6 @@ static int ia32_get_op_estimated_cost(const ir_node *irn)
  * @return          The inverse operation or NULL if operation invertible
  */
 static arch_inverse_t *ia32_get_inverse(const ir_node *irn, int i, arch_inverse_t *inverse, struct obstack *obst) {
-       ir_graph *irg;
        ir_mode  *mode;
        ir_mode  *irn_mode;
        ir_node  *block, *noreg, *nomem;
@@ -593,12 +587,11 @@ static arch_inverse_t *ia32_get_inverse(const ir_node *irn, int i, arch_inverse_
                   irn);
        return NULL;
 
-       irg      = get_irn_irg(irn);
        block    = get_nodes_block(irn);
        mode     = get_irn_mode(irn);
        irn_mode = get_irn_mode(irn);
        noreg    = get_irn_n(irn, 0);
-       nomem    = new_r_NoMem(irg);
+       nomem    = new_NoMem();
        dbg      = get_irn_dbg_info(irn);
 
        /* initialize structure */
@@ -612,7 +605,7 @@ static arch_inverse_t *ia32_get_inverse(const ir_node *irn, int i, arch_inverse_
                        if (get_ia32_immop_type(irn) == ia32_ImmConst) {
                                /* we have an add with a const here */
                                /* invers == add with negated const */
-                               inverse->nodes[0] = new_rd_ia32_Add(dbg, irg, block, noreg, noreg, nomem, get_irn_n(irn, i), noreg);
+                               inverse->nodes[0] = new_bd_ia32_Add(dbg, block, noreg, noreg, nomem, get_irn_n(irn, i), noreg);
                                inverse->costs   += 1;
                                copy_ia32_Immop_attr(inverse->nodes[0], (ir_node *)irn);
                                set_ia32_Immop_tarval(inverse->nodes[0], tarval_neg(get_ia32_Immop_tarval(irn)));
@@ -621,13 +614,13 @@ static arch_inverse_t *ia32_get_inverse(const ir_node *irn, int i, arch_inverse_
                        else if (get_ia32_immop_type(irn) == ia32_ImmSymConst) {
                                /* we have an add with a symconst here */
                                /* invers == sub with const */
-                               inverse->nodes[0] = new_rd_ia32_Sub(dbg, irg, block, noreg, noreg, nomem, get_irn_n(irn, i), noreg);
+                               inverse->nodes[0] = new_bd_ia32_Sub(dbg, block, noreg, noreg, nomem, get_irn_n(irn, i), noreg);
                                inverse->costs   += 2;
                                copy_ia32_Immop_attr(inverse->nodes[0], (ir_node *)irn);
                        }
                        else {
                                /* normal add: inverse == sub */
-                               inverse->nodes[0] = new_rd_ia32_Sub(dbg, irg, block, noreg, noreg, nomem, (ir_node*) irn, get_irn_n(irn, i ^ 1));
+                               inverse->nodes[0] = new_bd_ia32_Sub(dbg, block, noreg, noreg, nomem, (ir_node*) irn, get_irn_n(irn, i ^ 1));
                                inverse->costs   += 2;
                        }
 #endif
@@ -637,17 +630,17 @@ static arch_inverse_t *ia32_get_inverse(const ir_node *irn, int i, arch_inverse_
                        if (get_ia32_immop_type(irn) != ia32_ImmNone) {
                                /* we have a sub with a const/symconst here */
                                /* invers == add with this const */
-                               inverse->nodes[0] = new_rd_ia32_Add(dbg, irg, block, noreg, noreg, nomem, get_irn_n(irn, i), noreg);
+                               inverse->nodes[0] = new_bd_ia32_Add(dbg, block, noreg, noreg, nomem, get_irn_n(irn, i), noreg);
                                inverse->costs   += (get_ia32_immop_type(irn) == ia32_ImmSymConst) ? 5 : 1;
                                copy_ia32_Immop_attr(inverse->nodes[0], (ir_node *)irn);
                        }
                        else {
                                /* normal sub */
                                if (i == n_ia32_binary_left) {
-                                       inverse->nodes[0] = new_rd_ia32_Add(dbg, irg, block, noreg, noreg, nomem, (ir_node*) irn, get_irn_n(irn, 3));
+                                       inverse->nodes[0] = new_bd_ia32_Add(dbg, block, noreg, noreg, nomem, (ir_node*) irn, get_irn_n(irn, 3));
                                }
                                else {
-                                       inverse->nodes[0] = new_rd_ia32_Sub(dbg, irg, block, noreg, noreg, nomem, get_irn_n(irn, n_ia32_binary_left), (ir_node*) irn);
+                                       inverse->nodes[0] = new_bd_ia32_Sub(dbg, block, noreg, noreg, nomem, get_irn_n(irn, n_ia32_binary_left), (ir_node*) irn);
                                }
                                inverse->costs += 1;
                        }
@@ -657,24 +650,24 @@ static arch_inverse_t *ia32_get_inverse(const ir_node *irn, int i, arch_inverse_
 #if 0
                        if (get_ia32_immop_type(irn) != ia32_ImmNone) {
                                /* xor with const: inverse = xor */
-                               inverse->nodes[0] = new_rd_ia32_Xor(dbg, irg, block, noreg, noreg, nomem, get_irn_n(irn, i), noreg);
+                               inverse->nodes[0] = new_bd_ia32_Xor(dbg, block, noreg, noreg, nomem, get_irn_n(irn, i), noreg);
                                inverse->costs   += (get_ia32_immop_type(irn) == ia32_ImmSymConst) ? 5 : 1;
                                copy_ia32_Immop_attr(inverse->nodes[0], (ir_node *)irn);
                        }
                        else {
                                /* normal xor */
-                               inverse->nodes[0] = new_rd_ia32_Xor(dbg, irg, block, noreg, noreg, nomem, (ir_node *) irn, get_irn_n(irn, i));
+                               inverse->nodes[0] = new_bd_ia32_Xor(dbg, block, noreg, noreg, nomem, (ir_node *) irn, get_irn_n(irn, i));
                                inverse->costs   += 1;
                        }
 #endif
                        break;
                case iro_ia32_Not: {
-                       inverse->nodes[0] = new_rd_ia32_Not(dbg, irg, block, (ir_node*) irn);
+                       inverse->nodes[0] = new_bd_ia32_Not(dbg, block, (ir_node*) irn);
                        inverse->costs   += 1;
                        break;
                }
                case iro_ia32_Neg: {
-                       inverse->nodes[0] = new_rd_ia32_Neg(dbg, irg, block, (ir_node*) irn);
+                       inverse->nodes[0] = new_bd_ia32_Neg(dbg, block, (ir_node*) irn);
                        inverse->costs   += 1;
                        break;
                }
@@ -874,11 +867,18 @@ static void ia32_before_abi(void *self) {
  * Transforms the standard firm graph into
  * an ia32 firm graph
  */
-static void ia32_prepare_graph(void *self) {
-       ia32_code_gen_t *cg = self;
+static void ia32_prepare_graph(void *self)
+{
+       ia32_code_gen_t *cg  = self;
+       ir_graph        *irg = cg->irg;
 
        /* do local optimizations */
-       optimize_graph_df(cg->irg);
+       optimize_graph_df(irg);
+
+       /* we have to do cfopt+remove_critical_edges as we can't have Bad-blocks
+        * or critical edges in the backend */
+       optimize_cf(irg);
+       remove_critical_cf_edges(irg);
 
        /* TODO: we often have dead code reachable through out-edges here. So for
         * now we rebuild edges (as we need correct user count for code selection)
@@ -935,7 +935,7 @@ ir_node *turn_back_am(ir_node *node)
        ir_node  *mem   = get_irn_n(node, n_ia32_mem);
        ir_node  *noreg;
 
-       ir_node  *load     = new_rd_ia32_Load(dbgi, irg, block, base, index, mem);
+       ir_node  *load     = new_bd_ia32_Load(dbgi, block, base, index, mem);
        ir_node  *load_res = new_rd_Proj(dbgi, irg, block, load, mode_Iu, pn_ia32_Load_res);
 
        ia32_copy_am_attrs(load, node);
@@ -1061,16 +1061,16 @@ static void transform_to_Load(ia32_code_gen_t *cg, ir_node *node) {
 
        if (mode_is_float(spillmode)) {
                if (ia32_cg_config.use_sse2)
-                       new_op = new_rd_ia32_xLoad(dbg, irg, block, ptr, noreg, mem, spillmode);
+                       new_op = new_bd_ia32_xLoad(dbg, block, ptr, noreg, mem, spillmode);
                else
-                       new_op = new_rd_ia32_vfld(dbg, irg, block, ptr, noreg, mem, spillmode);
+                       new_op = new_bd_ia32_vfld(dbg, block, ptr, noreg, mem, spillmode);
        }
        else if (get_mode_size_bits(spillmode) == 128) {
                /* Reload 128 bit SSE registers */
-               new_op = new_rd_ia32_xxLoad(dbg, irg, block, ptr, noreg, mem);
+               new_op = new_bd_ia32_xxLoad(dbg, block, ptr, noreg, mem);
        }
        else
-               new_op = new_rd_ia32_Load(dbg, irg, block, ptr, noreg, mem);
+               new_op = new_bd_ia32_Load(dbg, block, ptr, noreg, mem);
 
        set_ia32_op_type(new_op, ia32_AddrModeS);
        set_ia32_ls_mode(new_op, spillmode);
@@ -1091,7 +1091,7 @@ static void transform_to_Load(ia32_code_gen_t *cg, ir_node *node) {
        reg = arch_get_irn_register(node);
        arch_set_irn_register(proj, reg);
 
-       SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
+       SET_IA32_ORIG_NODE(new_op, node);
 
        exchange(node, proj);
 }
@@ -1107,7 +1107,7 @@ static void transform_to_Store(ia32_code_gen_t *cg, ir_node *node) {
        const ir_node *spillval = get_irn_n(node, be_pos_Spill_val);
        ir_mode *mode  = get_spill_mode(spillval);
        ir_node *noreg = ia32_new_NoReg_gp(cg);
-       ir_node *nomem = new_rd_NoMem(irg);
+       ir_node *nomem = new_NoMem();
        ir_node *ptr   = get_irg_frame(irg);
        ir_node *val   = get_irn_n(node, be_pos_Spill_val);
        ir_node *store;
@@ -1131,16 +1131,16 @@ static void transform_to_Store(ia32_code_gen_t *cg, ir_node *node) {
 
        if (mode_is_float(mode)) {
                if (ia32_cg_config.use_sse2)
-                       store = new_rd_ia32_xStore(dbg, irg, block, ptr, noreg, nomem, val);
+                       store = new_bd_ia32_xStore(dbg, block, ptr, noreg, nomem, val);
                else
-                       store = new_rd_ia32_vfst(dbg, irg, block, ptr, noreg, nomem, val, mode);
+                       store = new_bd_ia32_vfst(dbg, block, ptr, noreg, nomem, val, mode);
        } else if (get_mode_size_bits(mode) == 128) {
                /* Spill 128 bit SSE registers */
-               store = new_rd_ia32_xxStore(dbg, irg, block, ptr, noreg, nomem, val);
+               store = new_bd_ia32_xxStore(dbg, block, ptr, noreg, nomem, val);
        } else if (get_mode_size_bits(mode) == 8) {
-               store = new_rd_ia32_Store8Bit(dbg, irg, block, ptr, noreg, nomem, val);
+               store = new_bd_ia32_Store8Bit(dbg, block, ptr, noreg, nomem, val);
        } else {
-               store = new_rd_ia32_Store(dbg, irg, block, ptr, noreg, nomem, val);
+               store = new_bd_ia32_Store(dbg, block, ptr, noreg, nomem, val);
        }
 
        set_ia32_op_type(store, ia32_AddrModeD);
@@ -1148,7 +1148,7 @@ static void transform_to_Store(ia32_code_gen_t *cg, ir_node *node) {
        set_ia32_frame_ent(store, ent);
        set_ia32_use_frame(store);
        set_ia32_is_spill(store);
-       SET_IA32_ORIG_NODE(store, ia32_get_old_node_name(cg, node));
+       SET_IA32_ORIG_NODE(store, node);
        DBG_OPT_SPILL2ST(node, store);
 
        if (sched_point) {
@@ -1160,13 +1160,13 @@ static void transform_to_Store(ia32_code_gen_t *cg, ir_node *node) {
 }
 
 static ir_node *create_push(ia32_code_gen_t *cg, ir_node *node, ir_node *schedpoint, ir_node *sp, ir_node *mem, ir_entity *ent) {
-       ir_graph *irg = get_irn_irg(node);
        dbg_info *dbg = get_irn_dbg_info(node);
        ir_node *block = get_nodes_block(node);
        ir_node *noreg = ia32_new_NoReg_gp(cg);
+       ir_graph *irg = get_irn_irg(node);
        ir_node *frame = get_irg_frame(irg);
 
-       ir_node *push = new_rd_ia32_Push(dbg, irg, block, frame, noreg, mem, noreg, sp);
+       ir_node *push = new_bd_ia32_Push(dbg, block, frame, noreg, mem, noreg, sp);
 
        set_ia32_frame_ent(push, ent);
        set_ia32_use_frame(push);
@@ -1179,13 +1179,13 @@ static ir_node *create_push(ia32_code_gen_t *cg, ir_node *node, ir_node *schedpo
 }
 
 static ir_node *create_pop(ia32_code_gen_t *cg, ir_node *node, ir_node *schedpoint, ir_node *sp, ir_entity *ent) {
-       ir_graph *irg = get_irn_irg(node);
        dbg_info *dbg = get_irn_dbg_info(node);
        ir_node *block = get_nodes_block(node);
        ir_node *noreg = ia32_new_NoReg_gp(cg);
+       ir_graph *irg = get_irn_irg(node);
        ir_node *frame = get_irg_frame(irg);
 
-       ir_node *pop = new_rd_ia32_PopMem(dbg, irg, block, frame, noreg, new_NoMem(), sp);
+       ir_node *pop = new_bd_ia32_PopMem(dbg, block, frame, noreg, new_NoMem(), sp);
 
        set_ia32_frame_ent(pop, ent);
        set_ia32_use_frame(pop);
@@ -1478,7 +1478,7 @@ static ir_node *ia32_get_pic_base(void *self) {
                return get_eip;
 
        block       = get_irg_start_block(cg->irg);
-       get_eip     = new_rd_ia32_GetEIP(NULL, cg->irg, block);
+       get_eip     = new_bd_ia32_GetEIP(NULL, block);
        cg->get_eip = get_eip;
 
        be_dep_on_frame(get_eip);
@@ -2050,9 +2050,9 @@ static void ia32_mark_remat(const void *self, ir_node *node) {
 }
 
 /**
- * Check for Abs or Nabs.
+ * Check for Abs or -Abs.
  */
-static int is_Abs_or_Nabs(ir_node *cmp, ir_node *sel, ir_node *t, ir_node *f) {
+static int psi_is_Abs_or_Nabs(ir_node *cmp, ir_node *sel, ir_node *t, ir_node *f) {
        ir_node *l, *r;
        pn_Cmp  pnc;
 
@@ -2078,6 +2078,46 @@ static int is_Abs_or_Nabs(ir_node *cmp, ir_node *sel, ir_node *t, ir_node *f) {
        return 1;
 }
 
+/**
+ * Check for Abs only
+ */
+static int psi_is_Abs(ir_node *cmp, ir_node *sel, ir_node *t, ir_node *f) {
+       ir_node *l, *r;
+       pn_Cmp  pnc;
+
+       if (cmp == NULL)
+               return 0;
+
+       /* must be <, <=, >=, > */
+       pnc = get_Proj_proj(sel);
+       if (pnc != pn_Cmp_Ge && pnc != pn_Cmp_Gt &&
+               pnc != pn_Cmp_Le && pnc != pn_Cmp_Lt)
+               return 0;
+
+       l = get_Cmp_left(cmp);
+       r = get_Cmp_right(cmp);
+
+       /* must be x cmp 0 */
+       if ((l != t && l != f) || !is_Const(r) || !is_Const_null(r))
+               return 0;
+
+       if ((!is_Minus(t) || get_Minus_op(t) != f) &&
+               (!is_Minus(f) || get_Minus_op(f) != t))
+               return 0;
+
+       if (pnc & pn_Cmp_Gt) {
+               /* x >= 0 ? -x : x is NABS */
+               if (is_Minus(t))
+                       return 0;
+       } else {
+               /* x < 0 ? x : -x is NABS */
+               if (is_Minus(f))
+                       return 0;
+       }
+       return 1;
+}
+
+
 /**
  * Allows or disallows the creation of Psi nodes for the given Phi nodes.
  *
@@ -2099,8 +2139,17 @@ static int ia32_is_psi_allowed(ir_node *sel, ir_node *phi_list, int i, int j)
                if (is_Cmp(cmp)) {
                        ir_node *left     = get_Cmp_left(cmp);
                        ir_mode *cmp_mode = get_irn_mode(left);
-                       if (!mode_is_float(cmp_mode) && get_mode_size_bits(cmp_mode) > 32)
-                               return 0;
+                       if (!mode_is_float(cmp_mode) && get_mode_size_bits(cmp_mode) > 32) {
+                               /* 64bit Abs IS supported */
+                               for (phi = phi_list; phi; phi = get_Phi_next(phi)) {
+                                       ir_node *t = get_Phi_pred(phi, i);
+                                       ir_node *f = get_Phi_pred(phi, j);
+
+                                       if (! psi_is_Abs(cmp, sel, t, f))
+                                               return 0;
+                               }
+                               return 1;
+                       }
                } else {
                        cmp = NULL;
                }
@@ -2147,7 +2196,7 @@ static int ia32_is_psi_allowed(ir_node *sel, ir_node *phi_list, int i, int j)
                                        ir_node *t = get_Phi_pred(phi, i);
                                        ir_node *f = get_Phi_pred(phi, j);
 
-                                       if (! is_Abs_or_Nabs(cmp, sel, t, f))
+                                       if (! psi_is_Abs_or_Nabs(cmp, sel, t, f))
                                                return 0;
                                } else if (get_mode_size_bits(mode) > 32)
                                        return 0;
@@ -2178,7 +2227,7 @@ static int ia32_is_psi_allowed(ir_node *sel, ir_node *phi_list, int i, int j)
 
                        if (mode_is_float(mode)) {
                                /* only abs or nabs supported */
-                               if (! is_Abs_or_Nabs(cmp, sel, t, f))
+                               if (! psi_is_Abs_or_Nabs(cmp, sel, t, f))
                                        return 0;
                        } else if (get_mode_size_bits(mode) > 32) {
                                /* no 64bit yet */
@@ -2262,13 +2311,12 @@ static const backend_params *ia32_get_libfirm_params(void) {
 
                1,  /* allow Mulhs */
                1,  /* allow Mulus */
-               32  /* Mulh allowed up to 32 bit */
+               32, /* Mulh allowed up to 32 bit */
        };
        static backend_params p = {
                1,     /* need dword lowering */
                1,     /* support inline assembly */
                0,     /* no immediate floating point mode. */
-               NULL,  /* no additional opcodes */
                NULL,  /* will be set later */
                ia32_create_intrinsic_fkt,
                &intrinsic_env,  /* context for ia32_create_intrinsic_fkt */