an old floating point benchmark
[libfirm] / ir / be / beuses.c
index 9d2c7da..dc7f302 100644 (file)
 #include "bearch.h"
 #include "beuses_t.h"
 
+#define DBG_LEVEL SET_LEVEL_0
+
 typedef struct _be_use_t {
-  const ir_node *bl;
-  const ir_node *irn;
-  unsigned next_use;
+       const ir_node *bl;
+       const ir_node *irn;
+       unsigned next_use;
 } be_use_t;
 
 struct _be_uses_t {
   set *uses;
   ir_graph *irg;
-  firm_dbg_module_t *dbg;
+  const be_lv_t *lv;
   const arch_env_t *arch_env;
+  DEBUG_ONLY(firm_dbg_module_t *dbg;)
 };
 
-
-#define MIN(a, b)                ((a) < (b) ? (a) : (b))
-
-static INLINE unsigned sadd(unsigned a, unsigned b)
-{
-  return a + b;
-}
-
-static INLINE unsigned sdiv(unsigned a, unsigned b)
-{
-  return a / b;
-}
-
 static int cmp_use(const void *a, const void *b, size_t n)
 {
   const be_use_t *p = a;
@@ -67,89 +57,98 @@ static int cmp_use(const void *a, const void *b, size_t n)
 }
 
 static INLINE be_use_t *get_or_set_use(be_uses_t *uses,
-    const ir_node *bl, const ir_node *irn, unsigned next_use)
+    const ir_node *bl, const ir_node *def, unsigned next_use)
 {
-  unsigned hash = HASH_COMBINE(HASH_PTR(bl), HASH_PTR(irn));
+  unsigned hash = HASH_COMBINE(HASH_PTR(bl), HASH_PTR(def));
   be_use_t templ;
+  be_use_t* result;
 
   templ.bl = bl;
-  templ.irn = irn;
-  templ.next_use = next_use;
-  return set_insert(uses->uses, &templ, sizeof(templ), hash);
+  templ.irn = def;
+  templ.next_use = be_get_next_use(uses, sched_first(bl), 0, def, 0);
+  result = set_insert(uses->uses, &templ, sizeof(templ), hash);
+
+  return result;
 }
 
 unsigned be_get_next_use(be_uses_t *uses, const ir_node *from,
-    unsigned from_step, const ir_node *def);
+    unsigned from_step, const ir_node *def, int skip_from_uses);
 
 static unsigned get_next_use_bl(be_uses_t *uses, const ir_node *bl,
     const ir_node *def)
 {
-  be_use_t *u;
+  be_use_t *u = get_or_set_use(uses, bl, def, 0);
 
-  u = get_or_set_use(uses, bl, def, 0);
-  if(USES_IS_INIFINITE(u->next_use))
-    return u->next_use;
-
-  u->next_use = USES_INFINITY;
-  u->next_use = be_get_next_use(uses, sched_first(bl), 0, def);
   return u->next_use;
 }
 
-unsigned be_get_next_use(be_uses_t *uses,
-    const ir_node *from, unsigned from_step, const ir_node *def)
+static unsigned get_next_use(be_uses_t *uses, const ir_node *from, unsigned from_step, const ir_node *def, int skip_from_uses, unsigned long visited_nr)
+{
+       unsigned next_use = USES_INFINITY;
+       unsigned step     = from_step;
+       unsigned n        = 0;
+       ir_node *bl       = get_nodes_block(from);
+       const ir_node *irn;
+       const ir_edge_t *succ_edge;
+
+       set_irn_visited(bl, visited_nr);
+
+       sched_foreach_from(from, irn) {
+               int i, n;
+
+               if (! skip_from_uses) {
+                       for (i = 0, n = get_irn_arity(irn); i < n; ++i) {
+                               ir_node *operand = get_irn_n(irn, i);
+
+                               if (operand == def) {
+                                       DBG((uses->dbg, LEVEL_3, "found use of %+F at %+F\n", operand, irn));
+                                       return step;
+                               }
+                       }
+               }
+
+               skip_from_uses = 0;
+               step++;
+       }
+
+       /* FIXME: quick and dirty hack to prevent ignore nodes (like stack pointer) from being spilled */
+       return be_is_live_end(uses->lv, bl, def) ? step : USES_INFINITY;
+
+       next_use = USES_INFINITY;
+       foreach_block_succ(bl, succ_edge) {
+               const ir_node *succ_bl = succ_edge->src;
+               if(get_irn_visited(succ_bl) < visited_nr && (be_is_live_in(uses->lv, succ_bl, def) || (get_irn_arity(succ_bl) > 1 && be_is_live_end(uses->lv, bl, def)))) {
+                       unsigned next = get_next_use_bl(uses, succ_bl, def);
+
+                       DBG((uses->dbg, LEVEL_2, "\t\tnext use in succ %+F: %d\n", succ_bl, next));
+                       next_use = MIN(next_use, next);
+                       n++;
+               }
+       }
+
+       return next_use + step;
+}
+
+unsigned be_get_next_use(be_uses_t *uses, const ir_node *from, unsigned from_step, const ir_node *def, int skip_from_uses)
 {
-  unsigned next_use = USES_INFINITY;
-  unsigned step = from_step;
-  unsigned n = 0;
-  const ir_node *irn;
-  const ir_node *bl = get_block(from);
-  const ir_edge_t *succ_edge;
-
-  sched_foreach_from(from, irn) {
-    int i, n;
-
-    for(i = 0, n = get_irn_arity(irn); i < n; ++i) {
-      ir_node *operand = get_irn_n(irn, i);
-
-      if(operand == def) {
-        DBG((uses->dbg, LEVEL_3, "found use of %+F at %+F\n", operand, irn));
-        return step;
-      }
-    }
-
-    step++;
-  }
-
-  next_use = step;
-  foreach_block_succ(bl, succ_edge) {
-    const ir_node *succ_bl = succ_edge->src;
-    if(is_live_in(succ_bl, def)) {
-      unsigned next = get_next_use_bl(uses, succ_bl, def);
-
-      DBG((uses->dbg, LEVEL_2, "\t\tnext use in succ %+F: %d\n", succ_bl, next));
-      next_use = sadd(next_use, next);
-      n++;
-    }
-  }
-
-  if(n > 1)
-    next_use = sdiv(next_use, n);
-
-  return sadd(next_use, step);
+       unsigned long visited_nr = get_irg_visited(uses->irg) + 1;
+
+       set_irg_visited(uses->irg, visited_nr);
+       return get_next_use(uses, from, from_step, def, skip_from_uses, visited_nr);
 }
 
-be_uses_t *be_begin_uses(
-    ir_graph *irg,
-    const arch_env_t *arch_env,
-    const arch_register_class_t *cls)
+
+be_uses_t *be_begin_uses(ir_graph *irg, const be_lv_t *lv, const arch_env_t *arch_env, const arch_register_class_t *cls)
 {
-  be_uses_t *uses = malloc(sizeof(uses[0]));
+  be_uses_t *uses = xmalloc(sizeof(uses[0]));
 
   edges_assure(irg);
 
   uses->arch_env = arch_env;
   uses->uses     = new_set(cmp_use, 512);
-  uses->dbg      = firm_dbg_register("be.uses");
+  uses->irg      = irg;
+  uses->lv       = lv;
+  FIRM_DBG_REGISTER(uses->dbg, "firm.be.uses");
 
   return uses;
 }