- DO NOT EDIT AFTER TEST!
[libfirm] / ir / lower / lower_intrinsics.c
index 3c23237..9835b9d 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (C) 1995-2007 University of Karlsruhe.  All right reserved.
+ * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
  *
  * This file is part of libFirm.
  *
@@ -24,9 +24,7 @@
  * @version $Id$
  */
 
-#ifdef HAVE_CONFIG_H
 #include "config.h"
-#endif
 
 #include "lowering.h"
 #include "irop_t.h"
 #include "irgmod.h"
 #include "irgopt.h"
 #include "trouts.h"
+#include "irvrfy.h"
 #include "pmap.h"
-#include "xmalloc.h"
+#include "array_t.h"
 #include "iropt_dbg.h"
 
-/** Walker environment */
+/** Walker environment. */
 typedef struct _walker_env {
        pmap     *c_map;              /**< The intrinsic call map. */
        unsigned nr_of_intrinsics;    /**< statistics */
@@ -63,11 +62,10 @@ static void call_mapper(ir_node *node, void *env) {
                ir_entity *ent;
 
                symconst = get_Call_ptr(node);
-               if (get_irn_op(symconst) != op_SymConst ||
-                       get_SymConst_kind(symconst) != symconst_addr_ent)
+               if (! is_Global(symconst))
                        return;
 
-               ent = get_SymConst_entity(symconst);
+               ent = get_Global_entity(symconst);
                p   = pmap_find(wenv->c_map, ent);
 
                if (p) {
@@ -121,27 +119,35 @@ unsigned lower_intrinsics(i_record *list, int length, int part_block_used) {
        for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
                irg = get_irp_irg(i);
 
-               if (part_block_used)
+               if (part_block_used) {
+                       ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_PHI_LIST);
                        collect_phiprojs(irg);
+               }
 
                wenv.nr_of_intrinsics = 0;
                irg_walk_graph(irg, NULL, call_mapper, &wenv);
 
-               if (wenv.nr_of_intrinsics) {
-                       /* changes detected */
+               if (part_block_used)
+                       ir_free_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_PHI_LIST);
+
+               if (wenv.nr_of_intrinsics > 0) {
+                       /* Changes detected: we might have added/removed nodes. */
                        set_irg_outs_inconsistent(irg);
                        set_irg_callee_info_state(irg, irg_callee_info_inconsistent);
 
-                       /* exception control flow might have changed */
+                       /* Exception control flow might have changed / new block might have added. */
                        set_irg_doms_inconsistent(irg);
                        set_irg_extblk_inconsistent(irg);
                        set_irg_loopinfo_inconsistent(irg);
 
-                       /* calls might be removed/added */
+                       /* Calls might be removed/added. */
                        set_trouts_inconsistent();
 
-                       /* optimize it, tuple might be created */
-                       local_optimize_graph(irg);
+                       /* verify here */
+                       irg_verify(irg, VRFY_NORMAL);
+
+                       /* Optimize it, tuple might be created. */
+                       optimize_graph_df(irg);
 
                        nr_of_intrinsics += wenv.nr_of_intrinsics;
                }
@@ -161,8 +167,9 @@ unsigned lower_intrinsics(i_record *list, int length, int part_block_used) {
  * @param exc_jmp  new exception control flow, if reg_jmp == NULL, a Bad will be used
  */
 static void replace_call(ir_node *irn, ir_node *call, ir_node *mem, ir_node *reg_jmp, ir_node *exc_jmp) {
+       ir_node *block = get_nodes_block(call);
+
        if (reg_jmp == NULL) {
-               ir_node *block = get_nodes_block(call);
 
                /* Beware: do we need here a protection against CSE? Better we do it. */
                int old_cse = get_opt_cse();
@@ -171,7 +178,7 @@ static void replace_call(ir_node *irn, ir_node *call, ir_node *mem, ir_node *reg
                set_opt_cse(old_cse);
                exc_jmp = new_Bad();
        }
-       irn = new_Tuple(1, &irn);
+       irn = new_r_Tuple(current_ir_graph, block, 1, &irn);
 
        turn_into_tuple(call, pn_Call_max);
        set_Tuple_pred(call, pn_Call_M_regular, mem);
@@ -206,11 +213,15 @@ int i_mapper_alloca(ir_node *call, void *ctx) {
        dbg_info *dbg  = get_irn_dbg_info(call);
        (void) ctx;
 
+       if (mode_is_signed(get_irn_mode(op))) {
+               op = new_rd_Conv(dbg, current_ir_graph, block, op, mode_Iu);
+       }
+
        irn    = new_rd_Alloc(dbg, current_ir_graph, block, mem, op, firm_unknown_type, stack_alloc);
-       mem    = new_Proj(irn, mode_M, pn_Alloc_M);
-       no_exc = new_Proj(irn, mode_X, pn_Alloc_X_regular);
-       exc    = new_Proj(irn, mode_X, pn_Alloc_X_except);
-       irn    = new_Proj(irn, get_modeP_data(), pn_Alloc_res);
+       mem    = new_rd_Proj(dbg, current_ir_graph, block, irn, mode_M, pn_Alloc_M);
+       no_exc = new_rd_Proj(dbg, current_ir_graph, block, irn, mode_X, pn_Alloc_X_regular);
+       exc    = new_rd_Proj(dbg, current_ir_graph, block, irn, mode_X, pn_Alloc_X_except);
+       irn    = new_rd_Proj(dbg, current_ir_graph, block, irn, get_modeP_data(), pn_Alloc_res);
 
        DBG_OPT_ALGSIM0(call, irn, FS_OPT_RTS_ALLOCA);
        replace_call(irn, call, mem, no_exc, exc);
@@ -480,8 +491,8 @@ int i_mapper_tanh(ir_node *call, void *ctx) {
  */
 static ir_entity *get_const_entity(ir_node *ptr) {
        /* FIXME: this cannot handle constant strings inside struct initializers yet */
-       if (is_SymConst(ptr) && get_SymConst_kind(ptr) == symconst_addr_ent) {
-               ir_entity *ent = get_SymConst_entity(ptr);
+       if (is_Global(ptr)) {
+               ir_entity *ent = get_Global_entity(ptr);
 
                if (get_entity_variability(ent) == variability_constant) {
                        /* a constant entity */
@@ -683,9 +694,7 @@ int i_mapper_strcmp(ir_node *call, void *ctx) {
        ir_node   *irn     = NULL;
        ir_node   *exc     = NULL;
        ir_node   *reg     = NULL;
-       ir_node   *adr     = get_Call_ptr(call);
-       ir_entity *ent     = get_SymConst_entity(adr);
-       ir_type   *call_tp = get_entity_type(ent);
+       ir_type   *call_tp = get_Call_type(call);
        ir_type   *res_tp  = get_method_res_type(call_tp, 0);
        ir_entity *ent_l, *ent_r;
        ir_type   *char_tp;
@@ -924,7 +933,7 @@ int i_mapper_RuntimeCall(ir_node *node, runtime_rt *rt) {
 
        /* step 1: create the call */
        sym.entity_p = rt->ent;
-       addr = new_r_SymConst(irg, bl, sym, symconst_addr_ent);
+       addr = new_r_SymConst(irg, bl, mode_P_code, sym, symconst_addr_ent);
        call = new_rd_Call(get_irn_dbg_info(node), irg, bl, mem, addr, n_param, in, mtp);
        set_irn_pinned(call, get_irn_pinned(node));
 
@@ -943,7 +952,7 @@ int i_mapper_RuntimeCall(ir_node *node, runtime_rt *rt) {
                        set_Tuple_pred(node, i, new_r_Bad(irg));
                if (rt->mem_proj_nr >= 0)
                        set_Tuple_pred(node, rt->mem_proj_nr, new_r_Proj(irg, bl, call, mode_M, pn_Call_M_regular));
-               if (get_irn_op(mem) != op_NoMem) {
+               if (!is_NoMem(mem)) {
                        /* Exceptions can only be handled with real memory */
                        if (rt->regular_proj_nr >= 0)
                                set_Tuple_pred(node, rt->regular_proj_nr, new_r_Proj(irg, bl, call, mode_X, pn_Call_X_regular));