Implemented floating point lowering to Calls into a soft float library.
[libfirm] / ir / ir / irnode.c
index 64f32bc..9086fcf 100644 (file)
 
 /* some constants fixing the positions of nodes predecessors
    in the in array */
-#define CALL_PARAM_OFFSET     2
-#define BUILDIN_PARAM_OFFSET  1
-#define SEL_INDEX_OFFSET      2
-#define RETURN_RESULT_OFFSET  1  /* mem is not a result */
+#define CALL_PARAM_OFFSET     (n_Call_max+1)
+#define BUILTIN_PARAM_OFFSET  (n_Builtin_max+1)
+#define SEL_INDEX_OFFSET      (n_Sel_max+1)
+#define RETURN_RESULT_OFFSET  (n_Return_max+1)
 #define END_KEEPALIVE_OFFSET  0
 
 static const char *relation_names [] = {
@@ -254,6 +254,7 @@ void set_irn_in(ir_node *node, int arity, ir_node **in)
 
        /* update irg flags */
        set_irg_outs_inconsistent(irg);
+       set_irg_loopinfo_inconsistent(irg);
 }
 
 ir_node *(get_irn_n)(const ir_node *node, int n)
@@ -279,6 +280,7 @@ void set_irn_n(ir_node *node, int n, ir_node *in)
 
        /* update irg flags */
        set_irg_outs_inconsistent(irg);
+       set_irg_loopinfo_inconsistent(irg);
 }
 
 int add_irn_n(ir_node *node, ir_node *in)
@@ -987,25 +989,25 @@ void set_Call_param(ir_node *node, int pos, ir_node *param)
 ir_node **get_Builtin_param_arr(ir_node *node)
 {
        assert(is_Builtin(node));
-       return &get_irn_in(node)[BUILDIN_PARAM_OFFSET + 1];
+       return &get_irn_in(node)[BUILTIN_PARAM_OFFSET + 1];
 }
 
 int get_Builtin_n_params(const ir_node *node)
 {
        assert(is_Builtin(node));
-       return (get_irn_arity(node) - BUILDIN_PARAM_OFFSET);
+       return (get_irn_arity(node) - BUILTIN_PARAM_OFFSET);
 }
 
 ir_node *get_Builtin_param(const ir_node *node, int pos)
 {
        assert(is_Builtin(node));
-       return get_irn_n(node, pos + BUILDIN_PARAM_OFFSET);
+       return get_irn_n(node, pos + BUILTIN_PARAM_OFFSET);
 }
 
 void set_Builtin_param(ir_node *node, int pos, ir_node *param)
 {
        assert(is_Builtin(node));
-       set_irn_n(node, pos + BUILDIN_PARAM_OFFSET, param);
+       set_irn_n(node, pos + BUILTIN_PARAM_OFFSET, param);
 }
 
 /* Returns a human readable string for the ir_builtin_kind. */
@@ -1069,23 +1071,6 @@ void remove_Call_callee_arr(ir_node *node)
        node->attr.call.callee_arr = NULL;
 }
 
-/*
- * Returns non-zero if a Call is surely a self-recursive Call.
- * Beware: if this functions returns 0, the call might be self-recursive!
- */
-int is_self_recursive_Call(const ir_node *call)
-{
-       const ir_node *callee = get_Call_ptr(call);
-
-       if (is_SymConst_addr_ent(callee)) {
-               const ir_entity *ent = get_SymConst_entity(callee);
-               const ir_graph  *irg = get_entity_irg(ent);
-               if (irg == get_irn_irg(call))
-                       return 1;
-       }
-       return 0;
-}
-
 /* Checks for upcast.
  *
  * Returns true if the Cast node casts a class type to a super type.
@@ -1235,24 +1220,28 @@ int is_memop(const ir_node *node)
 ir_node *get_memop_mem(const ir_node *node)
 {
        assert(is_memop(node));
+       assert(n_Load_mem == 0 && n_Store_mem == 0);
        return get_irn_n(node, 0);
 }
 
 void set_memop_mem(ir_node *node, ir_node *mem)
 {
        assert(is_memop(node));
+       assert(n_Load_mem == 0 && n_Store_mem == 0);
        set_irn_n(node, 0, mem);
 }
 
 ir_node *get_memop_ptr(const ir_node *node)
 {
        assert(is_memop(node));
+       assert(n_Load_mem == 1 && n_Store_mem == 1);
        return get_irn_n(node, 1);
 }
 
 void set_memop_ptr(ir_node *node, ir_node *ptr)
 {
        assert(is_memop(node));
+       assert(n_Load_mem == 1 && n_Store_mem == 1);
        set_irn_n(node, 1, ptr);
 }
 
@@ -1300,6 +1289,42 @@ int (is_arg_Proj)(const ir_node *node)
        return _is_arg_Proj(node);
 }
 
+int is_x_except_Proj(const ir_node *node)
+{
+       ir_node *pred;
+       if (!is_Proj(node))
+               return false;
+       pred = get_Proj_pred(node);
+       if (!is_fragile_op(pred))
+               return false;
+       return get_Proj_proj(node) == pred->op->pn_x_except;
+}
+
+int is_x_regular_Proj(const ir_node *node)
+{
+       ir_node *pred;
+       if (!is_Proj(node))
+               return false;
+       pred = get_Proj_pred(node);
+       if (!is_fragile_op(pred))
+               return false;
+       return get_Proj_proj(node) == pred->op->pn_x_regular;
+}
+
+void ir_set_throws_exception(ir_node *node, int throws_exception)
+{
+       except_attr *attr = &node->attr.except;
+       assert(is_fragile_op(node));
+       attr->throws_exception = throws_exception;
+}
+
+int ir_throws_exception(const ir_node *node)
+{
+       const except_attr *attr = &node->attr.except;
+       assert(is_fragile_op(node));
+       return attr->throws_exception;
+}
+
 ir_node **get_Tuple_preds_arr(ir_node *node)
 {
        assert(is_Tuple(node));
@@ -1496,6 +1521,9 @@ int (is_SymConst_addr_ent)(const ir_node *node)
 /* Returns true if the operation manipulates control flow. */
 int is_cfop(const ir_node *node)
 {
+       if (is_fragile_op(node) && ir_throws_exception(node))
+               return true;
+
        return is_op_cfopcode(get_irn_op(node));
 }
 
@@ -1515,23 +1543,7 @@ int is_fragile_op(const ir_node *node)
 ir_node *get_fragile_op_mem(ir_node *node)
 {
        assert(node && is_fragile_op(node));
-
-       switch (get_irn_opcode(node)) {
-       case iro_Call  :
-       case iro_Div   :
-       case iro_Mod   :
-       case iro_Load  :
-       case iro_Store :
-       case iro_Alloc :
-       case iro_Bound :
-       case iro_CopyB :
-               return get_irn_n(node, pn_Generic_M);
-       case iro_Bad   :
-       case iro_Unknown:
-               return node;
-       default:
-               panic("should not be reached");
-       }
+       return get_irn_n(node, node->op->fragile_mem_index);
 }
 
 /* Returns true if the operation is a forking control flow operation. */