is_irn_keep() added
[libfirm] / ir / ir / irnode.c
index aa7bb48..f2314c3 100644 (file)
@@ -54,34 +54,21 @@ const char *get_pnc_string(int pnc) {
 }
 
 /*
- * Calculates the negated pnc condition.
+ * Calculates the negated (Complement(R)) pnc condition.
  */
-int
-get_negated_pnc(int pnc) {
-  switch (pnc) {
-  case pn_Cmp_False: return pn_Cmp_True;
-  case pn_Cmp_Eq:    return pn_Cmp_Ne;
-  case pn_Cmp_Lt:    return pn_Cmp_Uge;
-  case pn_Cmp_Le:    return pn_Cmp_Ug;
-  case pn_Cmp_Gt:    return pn_Cmp_Ule;
-  case pn_Cmp_Ge:    return pn_Cmp_Ul;
-  case pn_Cmp_Lg:    return pn_Cmp_Ue;
-  case pn_Cmp_Leg:   return pn_Cmp_Uo;
-  case pn_Cmp_Uo:    return pn_Cmp_Leg;
-  case pn_Cmp_Ue:    return pn_Cmp_Lg;
-  case pn_Cmp_Ul:    return pn_Cmp_Ge;
-  case pn_Cmp_Ule:   return pn_Cmp_Gt;
-  case pn_Cmp_Ug:    return pn_Cmp_Le;
-  case pn_Cmp_Uge:   return pn_Cmp_Lt;
-  case pn_Cmp_Ne:    return pn_Cmp_Eq;
-  case pn_Cmp_True:  return pn_Cmp_False;
-  }
-  return 99; /* to shut up gcc */
+int get_negated_pnc(int pnc, ir_mode *mode) {
+  pnc ^= pn_Cmp_True;
+
+  /* do NOT add the Uo bit for non-floating point values */
+  if (! mode_is_float(mode))
+    pnc &= ~pn_Cmp_Uo;
+
+  return pnc;
 }
 
-/* Calculates the swapped pnc condition, i.e., "<" --> ">" */
+/* Calculates the inversed (R^-1) pnc condition, i.e., "<" --> ">" */
 int
-get_swapped_pnc(int pnc) {
+get_inversed_pnc(int pnc) {
   int code    = pnc & ~(pn_Cmp_Lt|pn_Cmp_Gt);
   int lesser  = pnc & pn_Cmp_Lt;
   int greater = pnc & pn_Cmp_Gt;
@@ -175,6 +162,9 @@ new_ir_node (dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op, ir_mode *mo
     int not_a_block = is_no_Block(res);
 
     INIT_LIST_HEAD(&res->edge_info.outs_head);
+    if(!not_a_block)
+      INIT_LIST_HEAD(&res->attr.block.succ_head);
+
 
     for (i = 0, n = arity + not_a_block; i < n; ++i)
       edges_notify_edge(res, i - not_a_block, res->in[i], NULL, irg);
@@ -233,6 +223,7 @@ get_irn_in (const ir_node *node) {
 
 void
 set_irn_in (ir_node *node, int arity, ir_node **in) {
+  int i;
   ir_node *** arr;
   assert(node);
   if (get_interprocedural_view()) { /* handle Filter and Block specially */
@@ -247,12 +238,24 @@ set_irn_in (ir_node *node, int arity, ir_node **in) {
   } else {
     arr = &node->in;
   }
-  if (arity != ARR_LEN(*arr) - 1) {
+
+       for (i = 0; i < arity; i++) {
+               if (i < ARR_LEN(*arr)-1)
+       edges_notify_edge(node, i, in[i], (*arr)[i+1], current_ir_graph);
+               else
+           edges_notify_edge(node, i, in[i], NULL,        current_ir_graph);
+  }
+       for(;i < ARR_LEN(*arr)-1; i++) {
+               edges_notify_edge(node, i, NULL, (*arr)[i+1], current_ir_graph);
+       }
+
+       if (arity != ARR_LEN(*arr) - 1) {
     ir_node * block = (*arr)[0];
     *arr = NEW_ARR_D(ir_node *, current_ir_graph->obst, arity + 1);
     (*arr)[0] = block;
   }
   fix_backedges(current_ir_graph->obst, node);
+
   memcpy((*arr) + 1, in, sizeof(ir_node *) * arity);
 }
 
@@ -420,6 +423,11 @@ op_pin_state
   return _get_irn_pinned(node);
 }
 
+op_pin_state
+(is_irn_pinned_in_irg) (const ir_node *node) {
+  return _is_irn_pinned_in_irg(node);
+}
+
 void set_irn_pinned(ir_node *node, op_pin_state state) {
   /* due to optimization an opt may be turned into a Tuple */
   if (get_irn_op(node) == op_Tuple)
@@ -502,7 +510,7 @@ get_irn_symconst_attr (ir_node *node)
   return node->attr.i;
 }
 
-type *
+ir_type *
 get_irn_call_attr (ir_node *node)
 {
   assert (node->op == op_Call);
@@ -552,12 +560,18 @@ get_irn_except_attr (ir_node *node)
   return node->attr.except;
 }
 
+void *
+get_irn_generic_attr (ir_node *node) {
+  return &node->attr;
+}
+
 /** manipulate fields of individual nodes **/
 
 /* this works for all except Block */
 ir_node *
 get_nodes_block (const ir_node *node) {
   assert (!(node->op == op_Block));
+       assert (is_irn_pinned_in_irg(node) && "block info may be incorrect");
   return get_irn_n(node, -1);
 }
 
@@ -569,7 +583,7 @@ set_nodes_block (ir_node *node, ir_node *block) {
 
 /* Test whether arbitrary node is frame pointer, i.e. Proj(pn_Start_P_frame_base)
  * from Start.  If so returns frame type, else Null. */
-type *is_frame_pointer(ir_node *n) {
+ir_type *is_frame_pointer(ir_node *n) {
   if ((get_irn_op(n) == op_Proj) &&
       (get_Proj_proj(n) == pn_Start_P_frame_base)) {
     ir_node *start = get_Proj_pred(n);
@@ -582,7 +596,7 @@ type *is_frame_pointer(ir_node *n) {
 
 /* Test whether arbitrary node is globals pointer, i.e. Proj(pn_Start_P_globals)
  * from Start.  If so returns global type, else Null. */
-type *is_globals_pointer(ir_node *n) {
+ir_type *is_globals_pointer(ir_node *n) {
   if ((get_irn_op(n) == op_Proj) &&
       (get_Proj_proj(n) == pn_Start_P_globals)) {
     ir_node *start = get_Proj_pred(n);
@@ -615,16 +629,13 @@ get_Block_cfgpred_arr (ir_node *node)
 }
 
 int
-get_Block_n_cfgpreds (ir_node *node) {
-  assert ((node->op == op_Block));
-  return get_irn_arity(node);
+(get_Block_n_cfgpreds)(ir_node *node) {
+  return get_Block_n_cfgpreds(node);
 }
 
 ir_node *
-get_Block_cfgpred (ir_node *node, int pos) {
-  assert(-1 <= pos && pos < get_irn_arity(node));
-  assert(node->op == op_Block);
-  return get_irn_n(node, pos);
+(get_Block_cfgpred)(ir_node *node, int pos) {
+  return get_Block_cfgpred(node, pos);
 }
 
 void
@@ -633,14 +644,19 @@ set_Block_cfgpred (ir_node *node, int pos, ir_node *pred) {
   set_irn_n(node, pos, pred);
 }
 
-bool
+ir_node  *
+(get_Block_cfgpred_block)(ir_node *node, int pos) {
+  return _get_Block_cfgpred_block(node, pos);
+}
+
+int
 get_Block_matured (ir_node *node) {
   assert (node->op == op_Block);
-  return node->attr.block.matured;
+  return (int)node->attr.block.matured;
 }
 
 void
-set_Block_matured (ir_node *node, bool matured) {
+set_Block_matured (ir_node *node, int matured) {
   assert (node->op == op_Block);
   node->attr.block.matured = matured;
 }
@@ -685,10 +701,10 @@ void set_Block_cg_cfgpred_arr(ir_node * node, int arity, ir_node ** in) {
     node->attr.block.in_cg[0] = NULL;
     node->attr.block.cg_backedge = new_backedge_arr(current_ir_graph->obst, arity);
     {
-      /* Fix backedge array.  fix_backedges operates depending on
+      /* Fix backedge array.  fix_backedges() operates depending on
      interprocedural_view. */
       int ipv = get_interprocedural_view();
-      set_interprocedural_view(true);
+      set_interprocedural_view(1);
       fix_backedges(current_ir_graph->obst, node);
       set_interprocedural_view(ipv);
     }
@@ -781,6 +797,17 @@ free_End (ir_node *end) {
                in array afterwards ... */
 }
 
+/* Return the target address of an IJmp */
+ir_node *get_IJmp_target(ir_node *ijmp) {
+  assert(ijmp->op == op_IJmp);
+  return get_irn_n(ijmp, 0);
+}
+
+/** Sets the target address of an IJmp */
+void set_IJmp_target(ir_node *ijmp, ir_node *tgt) {
+  assert(ijmp->op == op_IJmp);
+  set_irn_n(ijmp, 0, tgt);
+}
 
 /*
 > Implementing the case construct (which is where the constant Proj node is
@@ -934,14 +961,14 @@ cnst_classify_t (classify_Const)(ir_node *node)
 /* The source language type.  Must be an atomic type.  Mode of type must
    be mode of node. For tarvals from entities type must be pointer to
    entity type. */
-type *
+ir_type *
 get_Const_type (ir_node *node) {
   assert (node->op == op_Const);
   return node->attr.con.tp;
 }
 
 void
-set_Const_type (ir_node *node, type *tp) {
+set_Const_type (ir_node *node, ir_type *tp) {
   assert (node->op == op_Const);
   if (tp != firm_unknown_type) {
     assert (is_atomic_type(tp));
@@ -963,7 +990,7 @@ set_SymConst_kind (ir_node *node, symconst_kind num) {
   node->attr.i.num = num;
 }
 
-type *
+ir_type *
 get_SymConst_type (ir_node *node) {
   assert (   (node->op == op_SymConst)
           && (   get_SymConst_kind(node) == symconst_type_tag
@@ -972,7 +999,7 @@ get_SymConst_type (ir_node *node) {
 }
 
 void
-set_SymConst_type (ir_node *node, type *tp) {
+set_SymConst_type (ir_node *node, ir_type *tp) {
   assert (   (node->op == op_SymConst)
           && (   get_SymConst_kind(node) == symconst_type_tag
               || get_SymConst_kind(node) == symconst_size));
@@ -1020,7 +1047,7 @@ set_SymConst_symbol (ir_node *node, union symconst_symbol sym) {
   node->attr.i.sym = sym;
 }
 
-type *
+ir_type *
 get_SymConst_value_type (ir_node *node) {
   assert (node->op == op_SymConst);
   if (node->attr.i.tp) node->attr.i.tp = skip_tid(node->attr.i.tp);
@@ -1028,7 +1055,7 @@ get_SymConst_value_type (ir_node *node) {
 }
 
 void
-set_SymConst_value_type (ir_node *node, type *tp) {
+set_SymConst_value_type (ir_node *node, ir_type *tp) {
   assert (node->op == op_SymConst);
   node->attr.i.tp = tp;
 }
@@ -1097,16 +1124,16 @@ set_Sel_entity (ir_node *node, entity *ent) {
   node->attr.s.ent = ent;
 }
 
-type *
-get_InstOf_ent (ir_node *node) {
+ir_type *
+get_InstOf_type (ir_node *node) {
   assert (node->op = op_InstOf);
-  return (node->attr.io.ent);
+  return (node->attr.io.type);
 }
 
 void
-set_InstOf_ent (ir_node *node, type *ent) {
+set_InstOf_type (ir_node *node, ir_type *type) {
   assert (node->op = op_InstOf);
-  node->attr.io.ent = ent;
+  node->attr.io.type = type;
 }
 
 ir_node *
@@ -1202,14 +1229,14 @@ set_Call_param (ir_node *node, int pos, ir_node *param) {
   set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
 }
 
-type *
+ir_type *
 get_Call_type (ir_node *node) {
   assert (node->op == op_Call);
   return node->attr.call.cld_tp = skip_tid(node->attr.call.cld_tp);
 }
 
 void
-set_Call_type (ir_node *node, type *tp) {
+set_Call_type (ir_node *node, ir_type *tp) {
   assert (node->op == op_Call);
   assert ((get_unknown_type() == tp) || is_Method_type(tp));
   node->attr.call.cld_tp = tp;
@@ -1363,14 +1390,14 @@ BINOP(Cmp)
 UNOP(Conv)
 UNOP(Cast)
 
-type *
+ir_type *
 get_Cast_type (ir_node *node) {
   assert (node->op == op_Cast);
   return node->attr.cast.totype;
 }
 
 void
-set_Cast_type (ir_node *node, type *to_tp) {
+set_Cast_type (ir_node *node, ir_type *to_tp) {
   assert (node->op == op_Cast);
   node->attr.cast.totype = to_tp;
 }
@@ -1381,8 +1408,8 @@ set_Cast_type (ir_node *node, type *to_tp) {
  * Returns true if the Cast node casts a class type to a super type.
  */
 int is_Cast_upcast(ir_node *node) {
-  type *totype   = get_Cast_type(node);
-  type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
+  ir_type *totype   = get_Cast_type(node);
+  ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
   ir_graph *myirg = get_irn_irg(node);
 
   assert(get_irg_typeinfo_state(myirg) == ir_typeinfo_consistent);
@@ -1395,8 +1422,8 @@ int is_Cast_upcast(ir_node *node) {
 
   assert(fromtype);
 
-  if (!is_Class_type(totype)) return false;
-  return is_subclass_of(fromtype, totype);
+  if (!is_Class_type(totype)) return 0;
+  return is_SubClass_of(fromtype, totype);
 }
 
 /* Checks for downcast.
@@ -1404,8 +1431,8 @@ int is_Cast_upcast(ir_node *node) {
  * Returns true if the Cast node casts a class type to a sub type.
  */
 int is_Cast_downcast(ir_node *node) {
-  type *totype   = get_Cast_type(node);
-  type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
+  ir_type *totype   = get_Cast_type(node);
+  ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
 
   assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
   assert(fromtype);
@@ -1417,8 +1444,8 @@ int is_Cast_downcast(ir_node *node) {
 
   assert(fromtype);
 
-  if (!is_Class_type(totype)) return false;
-  return is_subclass_of(totype, fromtype);
+  if (!is_Class_type(totype)) return 0;
+  return is_SubClass_of(totype, fromtype);
 }
 
 int
@@ -1682,14 +1709,14 @@ set_Alloc_size (ir_node *node, ir_node *size) {
   set_irn_n(node, 1, size);
 }
 
-type  *
+ir_type  *
 get_Alloc_type (ir_node *node) {
   assert (node->op == op_Alloc);
   return node->attr.a.type = skip_tid(node->attr.a.type);
 }
 
 void
-set_Alloc_type (ir_node *node, type *tp) {
+set_Alloc_type (ir_node *node, ir_type *tp) {
   assert (node->op == op_Alloc);
   node->attr.a.type = tp;
 }
@@ -1743,14 +1770,14 @@ set_Free_size (ir_node *node, ir_node *size) {
   set_irn_n(node, 2, size);
 }
 
-type  *
+ir_type *
 get_Free_type (ir_node *node) {
   assert (node->op == op_Free);
   return node->attr.f.type = skip_tid(node->attr.f.type);
 }
 
 void
-set_Free_type (ir_node *node, type *tp) {
+set_Free_type (ir_node *node, ir_type *tp) {
   assert (node->op == op_Free);
   node->attr.f.type = tp;
 }
@@ -1798,9 +1825,9 @@ set_Sync_pred (ir_node *node, int pos, ir_node *pred) {
   set_irn_n(node, pos, pred);
 }
 
-type *get_Proj_type(ir_node *n)
+ir_type *get_Proj_type(ir_node *n)
 {
-  type *tp      = NULL;
+  ir_type *tp   = NULL;
   ir_node *pred = get_Proj_pred(n);
 
   switch (get_irn_opcode(pred)) {
@@ -1810,10 +1837,10 @@ type *get_Proj_type(ir_node *n)
     assert(get_irn_mode(pred) == mode_T);
     pred_pred = get_Proj_pred(pred);
     if (get_irn_op(pred_pred) == op_Start)  {
-      type *mtp = get_entity_type(get_irg_entity(get_irn_irg(pred_pred)));
+      ir_type *mtp = get_entity_type(get_irg_entity(get_irn_irg(pred_pred)));
       tp = get_method_param_type(mtp, get_Proj_proj(n));
     } else if (get_irn_op(pred_pred) == op_Call) {
-      type *mtp = get_Call_type(pred_pred);
+      ir_type *mtp = get_Call_type(pred_pred);
       tp = get_method_res_type(mtp, get_Proj_proj(n));
     }
   } break;
@@ -1831,7 +1858,7 @@ type *get_Proj_type(ir_node *n)
 }
 
 ir_node *
-get_Proj_pred (ir_node *node) {
+get_Proj_pred (const ir_node *node) {
   assert (is_Proj(node));
   return get_irn_n(node, 0);
 }
@@ -1843,7 +1870,7 @@ set_Proj_pred (ir_node *node, ir_node *pred) {
 }
 
 long
-get_Proj_proj (ir_node *node) {
+get_Proj_proj (const ir_node *node) {
   assert (is_Proj(node));
   if (get_irn_opcode(node) == iro_Proj) {
     return node->attr.proj;
@@ -2008,13 +2035,106 @@ void     set_Mux_true  (ir_node *node, ir_node *ir_true) {
   node->in[3] = ir_true;
 }
 
+/* CopyB support */
+ir_node *get_CopyB_mem (ir_node *node) {
+  assert (node->op == op_CopyB);
+  return get_irn_n(node, 0);
+}
+
+void     set_CopyB_mem (ir_node *node, ir_node *mem) {
+  assert (node->op == op_CopyB);
+  set_irn_n(node, 0, mem);
+}
+
+ir_node *get_CopyB_dst (ir_node *node) {
+  assert (node->op == op_CopyB);
+  return get_irn_n(node, 1);
+}
+
+void     set_CopyB_dst (ir_node *node, ir_node *dst) {
+  assert (node->op == op_CopyB);
+  set_irn_n(node, 1, dst);
+}
+
+ir_node *get_CopyB_src (ir_node *node) {
+  assert (node->op == op_CopyB);
+  return get_irn_n(node, 2);
+}
+
+void     set_CopyB_src (ir_node *node, ir_node *src) {
+  assert (node->op == op_CopyB);
+  set_irn_n(node, 2, src);
+}
+
+ir_type *get_CopyB_type(ir_node *node) {
+  assert (node->op == op_CopyB);
+  return node->attr.copyb.data_type;
+}
+
+void     set_CopyB_type(ir_node *node, ir_type *data_type) {
+  assert (node->op == op_CopyB && data_type);
+  node->attr.copyb.data_type = data_type;
+}
+
+/* Bound support */
+
+/* Returns the memory input of a Bound operation. */
+ir_node *get_Bound_mem(ir_node *bound) {
+  assert (bound->op == op_Bound);
+  return get_irn_n(bound, 0);
+}
 
+void     set_Bound_mem (ir_node *bound, ir_node *mem) {
+  assert (bound->op == op_Bound);
+  set_irn_n(bound, 0, mem);
+}
+
+/* Returns the index input of a Bound operation. */
+ir_node *get_Bound_index(ir_node *bound) {
+  assert (bound->op == op_Bound);
+  return get_irn_n(bound, 1);
+}
+
+void     set_Bound_index(ir_node *bound, ir_node *idx) {
+  assert (bound->op == op_Bound);
+  set_irn_n(bound, 1, idx);
+}
+
+/* Returns the lower bound input of a Bound operation. */
+ir_node *get_Bound_lower(ir_node *bound) {
+  assert (bound->op == op_Bound);
+  return get_irn_n(bound, 2);
+}
+
+void     set_Bound_lower(ir_node *bound, ir_node *lower) {
+  assert (bound->op == op_Bound);
+  set_irn_n(bound, 2, lower);
+}
+
+/* Returns the upper bound input of a Bound operation. */
+ir_node *get_Bound_upper(ir_node *bound) {
+  assert (bound->op == op_Bound);
+  return get_irn_n(bound, 3);
+}
+
+void     set_Bound_upper(ir_node *bound, ir_node *upper) {
+  assert (bound->op == op_Bound);
+  set_irn_n(bound, 3, upper);
+}
+
+/* returns the graph of a node */
 ir_graph *
 get_irn_irg(const ir_node *node) {
+       /*
+        * Do not use get_nodes_Block() here, because this
+        * will check the pinned state.
+        * However even a 'wrong' block is always in the proper
+        * irg.
+        */
   if (! is_Block(node))
-    node = get_nodes_block(node);
+    node = get_irn_n(node, -1);
   if (is_Bad(node))  /* sometimes bad is predecessor of nodes instead of block: in case of optimization */
-    node = get_nodes_block(node);
+    node = get_irn_n(node, -1);
   assert(get_irn_op(node) == op_Block);
   return node->attr.block.irg;
 }
@@ -2037,16 +2157,33 @@ skip_Proj (ir_node *node) {
 ir_node *
 skip_Tuple (ir_node *node) {
   ir_node *pred;
+  ir_op   *op;
 
   if (!get_opt_normalize()) return node;
 
+restart:
   node = skip_Id(node);
   if (get_irn_op(node) == op_Proj) {
     pred = skip_Id(get_Proj_pred(node));
-    if (get_irn_op(pred) == op_Proj) /* nested Tuple ? */
+    op   = get_irn_op(pred);
+
+    /*
+     * Looks strange but calls get_irn_op() only once
+     * in most often cases.
+     */
+    if (op == op_Proj) { /* nested Tuple ? */
       pred = skip_Id(skip_Tuple(pred));
-    else if (get_irn_op(pred) == op_Tuple)
-      return get_Tuple_pred(pred, get_Proj_proj(node));
+      op   = get_irn_op(pred);
+
+      if (op == op_Tuple) {
+        node = get_Tuple_pred(pred, get_Proj_proj(node));
+        goto restart;
+      }
+    }
+    else if (op == op_Tuple) {
+      node = get_Tuple_pred(pred, get_Proj_proj(node));
+      goto restart;
+    }
   }
   return node;
 }
@@ -2074,14 +2211,15 @@ ir_node *skip_HighLevel(ir_node *node) {
 
 #if 0
 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
-   than any other approach, as Id chains are resolved and all point to the real node, or
-   all id's are self loops. */
+ * than any other approach, as Id chains are resolved and all point to the real node, or
+ * all id's are self loops.
+ *
+ * Moreover, it CANNOT be switched off using get_opt_normalize() ...
+ */
 ir_node *
 skip_Id (ir_node *node) {
   /* don't assert node !!! */
 
-  if (!get_opt_normalize()) return node;
-
   /* Don't use get_Id_pred:  We get into an endless loop for
      self-referencing Ids. */
   if (node && (node->op == op_Id) && (node != node->in[0+1])) {
@@ -2102,8 +2240,14 @@ skip_Id (ir_node *node) {
 }
 #else
 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
-   than any other approach, as Id chains are resolved and all point to the real node, or
-   all id's are self loops. */
+ * than any other approach, as Id chains are resolved and all point to the real node, or
+ * all id's are self loops.
+ *
+ * Note: This function takes 10% of mostly ANY the compiler run, so it's
+ * a little bit "hand optimized".
+ *
+ * Moreover, it CANNOT be switched off using get_opt_normalize() ...
+ */
 ir_node *
 skip_Id (ir_node *node) {
   ir_node *pred;
@@ -2111,9 +2255,7 @@ skip_Id (ir_node *node) {
 
   if (!node || (node->op != op_Id)) return node;
 
-  if (!get_opt_normalize()) return node;
-
-  /* Don't use get_Id_pred:  We get into an endless loop for
+  /* Don't use get_Id_pred():  We get into an endless loop for
      self-referencing Ids. */
   pred = node->in[0+1];
 
@@ -2139,6 +2281,16 @@ skip_Id (ir_node *node) {
 }
 #endif
 
+void skip_Id_and_store(ir_node **node) {
+  ir_node *n = *node;
+
+  if (!n || (n->op != op_Id)) return;
+
+  /* Don't use get_Id_pred():  We get into an endless loop for
+     self-referencing Ids. */
+  *node = skip_Id(n);
+}
+
 int
 (is_Bad)(const ir_node *node) {
   return _is_Bad(node);
@@ -2215,31 +2367,141 @@ ir_node *get_fragile_op_mem(ir_node *node) {
 }
 
 /* Returns true if the operation is a forking control flow operation. */
-int
-is_forking_op(const ir_node *node) {
-  return is_op_forking(get_irn_op(node));
+int (is_irn_forking)(const ir_node *node) {
+  return _is_irn_forking(node);
 }
 
-type *(get_irn_type)(ir_node *node) {
+/* Return the type associated with the value produced by n
+ * if the node remarks this type as it is the case for
+ * Cast, Const, SymConst and some Proj nodes. */
+ir_type *(get_irn_type)(ir_node *node) {
   return _get_irn_type(node);
 }
 
-/** the get_type operation must be always implemented */
-static type *get_Null_type(ir_node *n) {
+/* Return the type attribute of a node n (SymConst, Call, Alloc, Free,
+   Cast) or NULL.*/
+ir_type *(get_irn_type_attr)(ir_node *node) {
+  return _get_irn_type_attr(node);
+}
+
+/* Return the entity attribute of a node n (SymConst, Sel) or NULL. */
+entity *(get_irn_entity_attr)(ir_node *node) {
+  return _get_irn_entity_attr(node);
+}
+
+/* Returns non-zero for constant-like nodes. */
+int (is_irn_constlike)(const ir_node *node) {
+  return _is_irn_constlike(node);
+}
+
+/*
+ * Returns non-zero for nodes that are allowed to have keep-alives and
+ * are neither Block nor PhiM.
+ */
+int (is_irn_keep)(const ir_node *node) {
+  return _is_irn_keep(node);
+}
+
+/* Gets the string representation of the jump prediction .*/
+const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred)
+{
+  switch (pred) {
+  default:
+  case COND_JMP_PRED_NONE:  return "no prediction";
+  case COND_JMP_PRED_TRUE:  return "true taken";
+  case COND_JMP_PRED_FALSE: return "false taken";
+  }
+}
+
+/* Returns the conditional jump prediction of a Cond node. */
+cond_jmp_predicate (get_Cond_jmp_pred)(ir_node *cond) {
+  return _get_Cond_jmp_pred(cond);
+}
+
+/* Sets a new conditional jump prediction. */
+void (set_Cond_jmp_pred)(ir_node *cond, cond_jmp_predicate pred) {
+  _set_Cond_jmp_pred(cond, pred);
+}
+
+/** the get_type operation must be always implemented and return a firm type */
+static ir_type *get_Default_type(ir_node *n) {
+  return get_unknown_type();
+}
+
+/* Sets the get_type operation for an ir_op_ops. */
+ir_op_ops *firm_set_default_get_type(opcode code, ir_op_ops *ops)
+{
+  switch (code) {
+  case iro_Const:    ops->get_type = get_Const_type; break;
+  case iro_SymConst: ops->get_type = get_SymConst_value_type; break;
+  case iro_Cast:     ops->get_type = get_Cast_type; break;
+  case iro_Proj:     ops->get_type = get_Proj_type; break;
+  default:
+    /* not allowed to be NULL */
+    if (! ops->get_type)
+      ops->get_type = get_Default_type;
+    break;
+  }
+  return ops;
+}
+
+/** Return the attribute type of a SymConst node if exists */
+static ir_type *get_SymConst_attr_type(ir_node *self) {
+  symconst_kind kind = get_SymConst_kind(self);
+  if (kind == symconst_type_tag || kind == symconst_size)
+    return get_SymConst_type(self);
+  return NULL;
+}
+
+/** Return the attribute entity of a SymConst node if exists */
+static entity *get_SymConst_attr_entity(ir_node *self) {
+  symconst_kind kind = get_SymConst_kind(self);
+  if (kind == symconst_addr_ent)
+    return get_SymConst_entity(self);
   return NULL;
 }
 
-/* set the get_type operation */
-ir_op *firm_set_default_get_type(ir_op *op)
+/** the get_type_attr operation must be always implemented */
+static ir_type *get_Null_type(ir_node *n) {
+  return firm_unknown_type;
+}
+
+/* Sets the get_type operation for an ir_op_ops. */
+ir_op_ops *firm_set_default_get_type_attr(opcode code, ir_op_ops *ops)
 {
-  switch (op->code) {
-  case iro_Const:    op->get_type = get_Const_type; break;
-  case iro_SymConst: op->get_type = get_SymConst_value_type; break;
-  case iro_Cast:     op->get_type = get_Cast_type; break;
-  case iro_Proj:     op->get_type = get_Proj_type; break;
-  default:           op->get_type = get_Null_type; break;
+  switch (code) {
+  case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
+  case iro_Call:     ops->get_type_attr = get_Call_type; break;
+  case iro_Alloc:    ops->get_type_attr = get_Alloc_type; break;
+  case iro_Free:     ops->get_type_attr = get_Free_type; break;
+  case iro_Cast:     ops->get_type_attr = get_Cast_type; break;
+  default:
+    /* not allowed to be NULL */
+    if (! ops->get_type_attr)
+      ops->get_type_attr = get_Null_type;
+    break;
+  }
+  return ops;
+}
+
+/** the get_entity_attr operation must be always implemented */
+static entity *get_Null_ent(ir_node *n) {
+  return NULL;
+}
+
+/* Sets the get_type operation for an ir_op_ops. */
+ir_op_ops *firm_set_default_get_entity_attr(opcode code, ir_op_ops *ops)
+{
+  switch (code) {
+  case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
+  case iro_Sel:      ops->get_entity_attr = get_Sel_entity; break;
+  default:
+    /* not allowed to be NULL */
+    if (! ops->get_entity_attr)
+      ops->get_entity_attr = get_Null_ent;
+    break;
   }
-  return op;
+  return ops;
 }
 
 #ifdef DEBUG_libfirm