Initial commit of morgans spilling algorithm (spill unused values that live through
[libfirm] / ir / be / beuses.c
1 /**
2  * @file   beuse.c
3  * @date   27.06.2005
4  * @author Sebastian Hack
5  *
6  * Methods to compute when a value will be used again.
7  *
8  * Copyright (C) 2005 Universitaet Karlsruhe
9  * Released under the GPL
10  */
11
12 #include <limits.h>
13 #include <stdlib.h>
14
15 #include "config.h"
16 #include "obst.h"
17 #include "pmap.h"
18 #include "debug.h"
19
20 #include "irgwalk.h"
21 #include "irnode_t.h"
22 #include "ircons_t.h"
23 #include "irgraph_t.h"
24 #include "iredges_t.h"
25 #include "irdom_t.h"
26
27 #include "be_t.h"
28 #include "beutil.h"
29 #include "belive_t.h"
30 #include "benode_t.h"
31 #include "besched_t.h"
32 #include "beirgmod.h"
33 #include "bearch.h"
34 #include "beuses_t.h"
35
36 #define DBG_LEVEL SET_LEVEL_0
37
38 typedef struct _be_use_t {
39         const ir_node *bl;
40         const ir_node *irn;
41         unsigned next_use;
42 } be_use_t;
43
44 struct _be_uses_t {
45   set *uses;
46   ir_graph *irg;
47   const arch_env_t *arch_env;
48   DEBUG_ONLY(firm_dbg_module_t *dbg;)
49 };
50
51 static INLINE unsigned sadd(unsigned a, unsigned b)
52 {
53   return a + b;
54 }
55
56 static INLINE unsigned sdiv(unsigned a, unsigned b)
57 {
58   return a / b;
59 }
60
61 static int cmp_use(const void *a, const void *b, size_t n)
62 {
63   const be_use_t *p = a;
64   const be_use_t *q = b;
65   return !(p->bl == q->bl && p->irn == q->irn);
66 }
67
68 static INLINE be_use_t *get_or_set_use(be_uses_t *uses,
69     const ir_node *bl, const ir_node *def, unsigned next_use)
70 {
71   unsigned hash = HASH_COMBINE(HASH_PTR(bl), HASH_PTR(def));
72   be_use_t templ;
73   be_use_t* result;
74
75   templ.bl = bl;
76   templ.irn = def;
77   templ.next_use = be_get_next_use(uses, sched_first(bl), 0, def, 0);
78   result = set_insert(uses->uses, &templ, sizeof(templ), hash);
79
80   return result;
81 }
82
83 unsigned be_get_next_use(be_uses_t *uses, const ir_node *from,
84     unsigned from_step, const ir_node *def, int skip_from_uses);
85
86 static unsigned get_next_use_bl(be_uses_t *uses, const ir_node *bl,
87     const ir_node *def)
88 {
89   be_use_t *u = get_or_set_use(uses, bl, def, 0);
90
91   return u->next_use;
92 }
93
94 static unsigned get_next_use(be_uses_t *uses, const ir_node *from, unsigned from_step, const ir_node *def, int skip_from_uses, unsigned long visited_nr)
95 {
96         unsigned next_use = USES_INFINITY;
97         unsigned step     = from_step;
98         unsigned n        = 0;
99         ir_node *bl       = get_nodes_block(from);
100         const ir_node *irn;
101         const ir_edge_t *succ_edge;
102
103         set_irn_visited(bl, visited_nr);
104
105         sched_foreach_from(from, irn) {
106                 int i, n;
107
108                 if (! skip_from_uses) {
109                         for (i = 0, n = get_irn_arity(irn); i < n; ++i) {
110                                 ir_node *operand = get_irn_n(irn, i);
111
112                                 if (operand == def) {
113                                         DBG((uses->dbg, LEVEL_3, "found use of %+F at %+F\n", operand, irn));
114                                         return step;
115                                 }
116                         }
117                 }
118
119                 skip_from_uses = 0;
120                 step++;
121         }
122
123         /* FIXME: quick and dirty hack to prevent ignore nodes (like stack pointer) from being spilled */
124         return is_live_end(bl, def) ? step : USES_INFINITY;
125
126         next_use = USES_INFINITY;
127         foreach_block_succ(bl, succ_edge) {
128                 const ir_node *succ_bl = succ_edge->src;
129                 if(get_irn_visited(succ_bl) < visited_nr && (is_live_in(succ_bl, def) || (get_irn_arity(succ_bl) > 1 && is_live_end(bl, def)))) {
130                         unsigned next = get_next_use_bl(uses, succ_bl, def);
131
132                         DBG((uses->dbg, LEVEL_2, "\t\tnext use in succ %+F: %d\n", succ_bl, next));
133                         next_use = MIN(next_use, next);
134                         n++;
135                 }
136         }
137
138         return next_use + step;
139 }
140
141 unsigned be_get_next_use(be_uses_t *uses, const ir_node *from, unsigned from_step, const ir_node *def, int skip_from_uses)
142 {
143         unsigned long visited_nr = get_irg_visited(uses->irg) + 1;
144
145         set_irg_visited(uses->irg, visited_nr);
146         return get_next_use(uses, from, from_step, def, skip_from_uses, visited_nr);
147 }
148
149
150 be_uses_t *be_begin_uses(ir_graph *irg, const arch_env_t *arch_env, const arch_register_class_t *cls)
151 {
152   be_uses_t *uses = xmalloc(sizeof(uses[0]));
153
154   edges_assure(irg);
155
156   uses->arch_env = arch_env;
157   uses->uses     = new_set(cmp_use, 512);
158   uses->irg      = irg;
159   FIRM_DBG_REGISTER(uses->dbg, "firm.be.uses");
160
161   return uses;
162 }
163
164 void be_end_uses(be_uses_t *uses)
165 {
166   del_set(uses->uses);
167   free(uses);
168 }
169
170 int loc_compare(const void *a, const void *b)
171 {
172   const loc_t *p = a;
173   const loc_t *q = b;
174   return p->time - q->time;
175 }