becopyilp: fix size_reduction code
[libfirm] / ir / be / becopyopt.c
index cde32cd..9f65aee 100644 (file)
@@ -22,7 +22,6 @@
  * @brief       Copy minimization driver.
  * @author      Daniel Grund
  * @date        12.04.2005
- * @version     $Id$
  *
  * Main file for the optimization reducing the copies needed for:
  * - Phi coalescing
@@ -42,9 +41,9 @@
 #include "irprog.h"
 #include "irloop_t.h"
 #include "iredges_t.h"
-#include "irbitset.h"
-#include "irphase_t.h"
 #include "irprintf_t.h"
+#include "irtools.h"
+#include "util.h"
 
 #include "bemodule.h"
 #include "bearch.h"
@@ -75,7 +74,7 @@
 
 static unsigned   dump_flags  = 0;
 static unsigned   style_flags = 0;
-static unsigned   do_stats    = 0;
+static int        do_stats    = 0;
 static cost_fct_t cost_func   = co_get_costs_exec_freq;
 static int        improve     = 1;
 
@@ -87,6 +86,16 @@ static const lc_opt_enum_mask_items_t dump_items[] = {
        { NULL,      0 }
 };
 
+/**
+ * Flags for dumping the IFG.
+ */
+enum {
+       CO_IFG_DUMP_COLORS = 1 << 0, /**< Dump the graph colored. */
+       CO_IFG_DUMP_LABELS = 1 << 1, /**< Dump node/edge labels. */
+       CO_IFG_DUMP_SHAPE  = 1 << 2, /**< Give constrained nodes special shapes. */
+       CO_IFG_DUMP_CONSTR = 1 << 3, /**< Dump the node constraints in the label. */
+};
+
 static const lc_opt_enum_mask_items_t style_items[] = {
        { "color",   CO_IFG_DUMP_COLORS },
        { "labels",  CO_IFG_DUMP_LABELS },
@@ -136,7 +145,7 @@ void be_register_copyopt(const char *name, co_algo_info *copyopt)
        be_add_module_to_list(&copyopts, name, copyopt);
 }
 
-BE_REGISTER_MODULE_CONSTRUCTOR(be_init_copyopt);
+BE_REGISTER_MODULE_CONSTRUCTOR(be_init_copyopt)
 void be_init_copyopt(void)
 {
        lc_opt_entry_t *be_grp = lc_opt_get_grp(firm_opt_get_root(), "be");
@@ -155,7 +164,7 @@ static int void_algo(copy_opt_t *co)
        return 0;
 }
 
-BE_REGISTER_MODULE_CONSTRUCTOR(be_init_copynone);
+BE_REGISTER_MODULE_CONSTRUCTOR(be_init_copynone)
 void be_init_copynone(void)
 {
        static co_algo_info copyheur = {
@@ -194,7 +203,7 @@ DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
 copy_opt_t *new_copy_opt(be_chordal_env_t *chordal_env, cost_fct_t get_costs)
 {
        const char *s1, *s2, *s3;
-       int len;
+       size_t len;
        copy_opt_t *co;
 
        FIRM_DBG_REGISTER(dbg, "ir.be.copyopt");
@@ -228,19 +237,14 @@ void free_copy_opt(copy_opt_t *co)
 static int co_is_optimizable_root(ir_node *irn)
 {
        const arch_register_req_t *req;
-       const arch_register_t     *reg;
 
        if (arch_irn_is_ignore(irn))
                return 0;
 
-       reg = arch_get_irn_register(irn);
-       if (arch_register_type_is(reg, ignore))
-               return 0;
-
        if (is_Reg_Phi(irn) || is_Perm_Proj(irn))
                return 1;
 
-       req = arch_get_register_req_out(irn);
+       req = arch_get_irn_register_req(irn);
        if (is_2addr_code(req))
                return 1;
 
@@ -313,7 +317,7 @@ static int ou_max_ind_set_costs(unit_t *ou)
        ir_node **safe, **unsafe;
        int i, o, safe_count, safe_costs, unsafe_count, *unsafe_costs;
        bitset_t *curr;
-       unsigned  pos;
+       size_t  pos;
        int curr_weight, best_weight = 0;
 
        /* assign the nodes into two groups.
@@ -349,7 +353,7 @@ static int ou_max_ind_set_costs(unit_t *ou)
        /* now compute the best set out of the unsafe nodes*/
        if (unsafe_count > MIS_HEUR_TRIGGER) {
                bitset_t *best = bitset_alloca(unsafe_count);
-               /* Heuristik: Greedy trial and error form index 0 to unsafe_count-1 */
+               /* Heuristic: Greedy trial and error form index 0 to unsafe_count-1 */
                for (i=0; i<unsafe_count; ++i) {
                        bitset_set(best, i);
                        /* check if it is a stable set */
@@ -374,7 +378,7 @@ static int ou_max_ind_set_costs(unit_t *ou)
                                                        goto no_stable_set;
 
                        /* if we arrive here, we have a stable set */
-                       /* compute the weigth of the stable set*/
+                       /* compute the weight of the stable set*/
                        curr_weight = 0;
                        bitset_foreach(curr, pos)
                                curr_weight += unsafe_costs[pos];
@@ -395,12 +399,12 @@ static int ou_max_ind_set_costs(unit_t *ou)
 static void co_collect_units(ir_node *irn, void *env)
 {
        const arch_register_req_t *req;
-       copy_opt_t                *co  = env;
+       copy_opt_t                *co  = (copy_opt_t*)env;
        unit_t *unit;
 
        if (get_irn_mode(irn) == mode_T)
                return;
-       req = arch_get_register_req_out(irn);
+       req = arch_get_irn_register_req(irn);
        if (req->cls != co->cls)
                return;
        if (!co_is_optimizable_root(irn))
@@ -427,7 +431,7 @@ static void co_collect_units(ir_node *irn, void *env)
                        int o, arg_pos;
                        ir_node *arg = get_irn_n(irn, i);
 
-                       assert(arch_get_irn_reg_class_out(arg) == co->cls && "Argument not in same register class.");
+                       assert(arch_get_irn_reg_class(arg) == co->cls && "Argument not in same register class.");
                        if (arg == irn)
                                continue;
                        if (nodes_interfere(co->cenv, irn, arg)) {
@@ -549,7 +553,7 @@ static int compare_ous(const void *k1, const void *k2)
        /* Units with constraints come first */
        u1_has_constr = 0;
        for (i=0; i<u1->node_count; ++i) {
-               arch_get_register_req_out(&req, u1->nodes[i]);
+               arch_get_irn_register_req(&req, u1->nodes[i]);
                if (arch_register_req_is(&req, limited)) {
                        u1_has_constr = 1;
                        break;
@@ -558,7 +562,7 @@ static int compare_ous(const void *k1, const void *k2)
 
        u2_has_constr = 0;
        for (i=0; i<u2->node_count; ++i) {
-               arch_get_register_req_out(&req, u2->nodes[i]);
+               arch_get_irn_register_req(&req, u2->nodes[i]);
                if (arch_register_req_is(&req, limited)) {
                        u2_has_constr = 1;
                        break;
@@ -708,7 +712,7 @@ int co_get_lower_bound(const copy_opt_t *co)
 
 void co_complete_stats(const copy_opt_t *co, co_complete_stats_t *stat)
 {
-       bitset_t *seen = bitset_irg_malloc(co->irg);
+       bitset_t *seen = bitset_malloc(get_irg_last_idx(co->irg));
        affinity_node_t *an;
 
        memset(stat, 0, sizeof(stat[0]));
@@ -717,9 +721,9 @@ void co_complete_stats(const copy_opt_t *co, co_complete_stats_t *stat)
        co_gs_foreach_aff_node(co, an) {
                neighb_t *neigh;
                stat->aff_nodes += 1;
-               bitset_add_irn(seen, an->irn);
+               bitset_set(seen, get_irn_idx(an->irn));
                co_gs_foreach_neighb(an, neigh) {
-                       if (!bitset_contains_irn(seen, neigh->irn)) {
+                       if (!bitset_is_set(seen, get_irn_idx(neigh->irn))) {
                                stat->aff_edges += 1;
                                stat->max_costs += neigh->costs;
 
@@ -753,8 +757,8 @@ void co_complete_stats(const copy_opt_t *co, co_complete_stats_t *stat)
 
 static int compare_affinity_node_t(const void *k1, const void *k2, size_t size)
 {
-       const affinity_node_t *n1 = k1;
-       const affinity_node_t *n2 = k2;
+       const affinity_node_t *n1 = (const affinity_node_t*)k1;
+       const affinity_node_t *n2 = (const affinity_node_t*)k2;
        (void) size;
 
        return (n1->irn != n2->irn);
@@ -769,7 +773,7 @@ static void add_edge(copy_opt_t *co, ir_node *n1, ir_node *n2, int costs)
        new_node.irn        = n1;
        new_node.degree     = 0;
        new_node.neighbours = NULL;
-       node = set_insert(co->nodes, &new_node, sizeof(new_node), hash_irn(new_node.irn));
+       node = (affinity_node_t*)set_insert(co->nodes, &new_node, sizeof(new_node), hash_irn(new_node.irn));
 
        for (nbr = node->neighbours; nbr; nbr = nbr->next)
                if (nbr->irn == n2) {
@@ -803,20 +807,15 @@ static inline void add_edges(copy_opt_t *co, ir_node *n1, ir_node *n2, int costs
 static void build_graph_walker(ir_node *irn, void *env)
 {
        const arch_register_req_t *req;
-       copy_opt_t                *co  = env;
+       copy_opt_t                *co  = (copy_opt_t*)env;
        int pos, max;
-       const arch_register_t *reg;
 
        if (get_irn_mode(irn) == mode_T)
                return;
-       req = arch_get_register_req_out(irn);
+       req = arch_get_irn_register_req(irn);
        if (req->cls != co->cls || arch_irn_is_ignore(irn))
                return;
 
-       reg = arch_get_irn_register(irn);
-       if (arch_register_type_is(reg, ignore))
-               return;
-
        if (is_Reg_Phi(irn)) { /* Phis */
                for (pos=0, max=get_irn_arity(irn); pos<max; ++pos) {
                        ir_node *arg = get_irn_n(irn, pos);
@@ -865,7 +864,7 @@ int co_gs_is_optimizable(copy_opt_t *co, ir_node *irn)
        ASSERT_GS_AVAIL(co);
 
        new_node.irn = irn;
-       n = set_find(co->nodes, &new_node, sizeof(new_node), hash_irn(new_node.irn));
+       n = (affinity_node_t*)set_find(co->nodes, &new_node, sizeof(new_node), hash_irn(new_node.irn));
        if (n) {
                return (n->degree > 0);
        } else
@@ -882,7 +881,7 @@ static int co_dump_appel_disjoint_constraints(const copy_opt_t *co, ir_node *a,
        constr[1] = bitset_alloca(co->cls->n_regs);
 
        for (j = 0; j < 2; ++j) {
-               const arch_register_req_t *req = arch_get_register_req_out(nodes[j]);
+               const arch_register_req_t *req = arch_get_irn_register_req(nodes[j]);
                if (arch_register_req_is(req, limited))
                        rbitset_copy_to_bitset(req->limited, constr[j]);
                else
@@ -898,6 +897,8 @@ void co_dump_appel_graph(const copy_opt_t *co, FILE *f)
        be_ifg_t *ifg       = co->cenv->ifg;
        int      *color_map = ALLOCAN(int, co->cls->n_regs);
        int      *node_map  = XMALLOCN(int, get_irg_last_idx(co->irg) + 1);
+       ir_graph *irg       = co->irg;
+       be_irg_t *birg      = be_birg_from_irg(irg);
 
        ir_node *irn;
        nodes_iter_t it;
@@ -908,7 +909,11 @@ void co_dump_appel_graph(const copy_opt_t *co, FILE *f)
        n_regs = 0;
        for (i = 0; i < co->cls->n_regs; ++i) {
                const arch_register_t *reg = &co->cls->regs[i];
-               color_map[i] = arch_register_type_is(reg, ignore) ? -1 : n_regs++;
+               if (rbitset_is_set(birg->allocatable_regs, reg->global_index)) {
+                       color_map[i] = n_regs++;
+               } else {
+                       color_map[i] = -1;
+               }
        }
 
        /*
@@ -929,7 +934,7 @@ void co_dump_appel_graph(const copy_opt_t *co, FILE *f)
                if (!arch_irn_is_ignore(irn)) {
                        int idx                        = node_map[get_irn_idx(irn)];
                        affinity_node_t           *a   = get_affinity_info(co, irn);
-                       const arch_register_req_t *req = arch_get_register_req_out(irn);
+                       const arch_register_req_t *req = arch_get_irn_register_req(irn);
                        ir_node                   *adj;
 
                        if (arch_register_req_is(req, limited)) {
@@ -1032,9 +1037,9 @@ static int ifg_is_dump_node(void *self, ir_node *irn)
 
 static void ifg_dump_node_attr(FILE *f, void *self, ir_node *irn)
 {
-       co_ifg_dump_t             *env     = self;
+       co_ifg_dump_t             *env     = (co_ifg_dump_t*)self;
        const arch_register_t     *reg     = arch_get_irn_register(irn);
-       const arch_register_req_t *req     = arch_get_register_req_out(irn);
+       const arch_register_req_t *req     = arch_get_irn_register_req(irn);
        int                        limited = arch_register_req_is(req, limited);
 
        if (env->flags & CO_IFG_DUMP_LABELS) {
@@ -1059,7 +1064,7 @@ static void ifg_dump_node_attr(FILE *f, void *self, ir_node *irn)
 
 static void ifg_dump_at_end(FILE *file, void *self)
 {
-       co_ifg_dump_t *env = self;
+       co_ifg_dump_t *env = (co_ifg_dump_t*)self;
        affinity_node_t *a;
 
        co_gs_foreach_aff_node(env->co, a) {
@@ -1107,12 +1112,6 @@ void co_dump_ifg_dot(const copy_opt_t *co, FILE *f, unsigned flags)
        be_ifg_dump_dot(co->cenv->ifg, co->irg, f, &ifg_dot_cb, &cod);
 }
 
-
-void co_solve_park_moon(copy_opt_t *opt)
-{
-       (void) opt;
-}
-
 /*
     __  __       _         ____       _
    |  \/  | __ _(_)_ __   |  _ \ _ __(_)_   _____ _ __
@@ -1214,16 +1213,16 @@ void co_driver(be_chordal_env_t *cenv)
        co_complete_stats(co, &after);
 
        if (do_stats) {
-               ulong64 optimizable_costs = after.max_costs - after.inevit_costs;
-               ulong64 evitable          = after.costs     - after.inevit_costs;
+               unsigned long long optimizable_costs = after.max_costs - after.inevit_costs;
+               unsigned long long evitable          = after.costs     - after.inevit_costs;
 
                ir_printf("%30F ", cenv->irg);
-               printf("%10s %10" ULL_FMT "%10" ULL_FMT "%10" ULL_FMT, cenv->cls->name, after.max_costs, before.costs, after.inevit_costs);
+               printf("%10s %10llu%10llu%10llu", cenv->cls->name, after.max_costs, before.costs, after.inevit_costs);
 
                if (optimizable_costs > 0)
-                       printf("%10" ULL_FMT " %5.2f\n", after.costs, (evitable * 100.0) / optimizable_costs);
+                       printf("%10llu %5.2f\n", after.costs, (evitable * 100.0) / optimizable_costs);
                else
-                       printf("%10" ULL_FMT " %5s\n", after.costs, "-");
+                       printf("%10llu %5s\n", after.costs, "-");
        }
 
        /* Dump the interference graph in Appel's format. */