improved strength reduction
[libfirm] / ir / opt / reassoc.c
1 /*
2  * Project:     libFIRM
3  * File name:   ir/opt/reassoc.c
4  * Purpose:     Reassociation
5  * Author:      Michael Beck
6  * Created:
7  * CVS-ID:      $Id$
8  * Copyright:   (c) 1998-2004 Universität Karlsruhe
9  * Licence:     This file protected by GPL -  GNU GENERAL PUBLIC LICENSE.
10  */
11
12 #ifdef HAVE_CONFIG_H
13 # include <config.h>
14 #endif
15
16 # include "irnode_t.h"
17 # include "irgraph_t.h"
18 # include "irmode_t.h"
19 # include "iropt_t.h"
20 # include "ircons_t.h"
21 # include "irgmod.h"
22 # include "dbginfo.h"
23 # include "iropt_dbg.h"
24 # include "irflag_t.h"
25 # include "irgwalk.h"
26 # include "reassoc_t.h"
27 # include "firmstat.h"
28
29 typedef struct _walker_t {
30   int changes;          /* set, if a reassociation take place */
31 } walker_t;
32
33 typedef enum {
34   NO_CONSTANT   = 0,    /**< node is not constant */
35   REAL_CONSTANT = 1,    /**< node is a constnt that is suitable for constant folding */
36   CONST_EXPR    = 4     /**< node is not constant expression in the current context,
37                              use 4 here to simplify implementation of get_comm_Binop_ops() */
38 } const_class_t;
39
40 /**
41  * returns whether a node is constant, ie is a constant or
42  * is loop invariant
43  */
44 static const_class_t get_const_class(ir_node *n)
45 {
46   ir_op *op = get_irn_op(n);
47
48   if (op == op_Const)
49     return REAL_CONSTANT;
50   if (op == op_SymConst)
51     return CONST_EXPR;
52
53   return NO_CONSTANT;
54 }
55
56 /**
57  * returns the operands of a commutative bin-op, if one operand is
58  * a constant in the current context, it is returned as the second one.
59  *
60  * Beware: Real constrants must be returned with higher priority than
61  * constnt expression, because they might be folded.
62  */
63 static void get_comm_Binop_ops(ir_node *binop, ir_node **a, ir_node **c)
64 {
65   ir_node *op_a = get_binop_left(binop);
66   ir_node *op_b = get_binop_right(binop);
67   int class_a = get_const_class(op_a);
68   int class_b = get_const_class(op_b);
69
70   assert(is_op_commutative(get_irn_op(binop)));
71
72   switch (class_a + 2*class_b) {
73     case REAL_CONSTANT + 2*NO_CONSTANT:
74     case REAL_CONSTANT + 2*REAL_CONSTANT:
75     case REAL_CONSTANT + 2*CONST_EXPR:
76     case CONST_EXPR    + 2*NO_CONSTANT:
77       *a = op_b;
78       *c = op_a;
79       break;
80     default:
81       *a = op_a;
82       *c = op_b;
83       break;
84   }
85 }
86
87 /**
88  * reassociate a Sub: x - c = (-c) + x
89  */
90 static int reassoc_Sub(ir_node *n)
91 {
92   ir_node *right = get_Sub_right(n);
93
94   /* FIXME: Do not apply this rule for unsigned Sub's because our code
95    * generation is currently buggy :-)
96    */
97   if (! mode_is_signed(get_irn_mode(n)))
98       return 0;
99
100   /* handles rule R6:
101    * convert x - c => (-c) + x
102    *
103    * As there is NO real Minus in Firm it makes no sense to do this
104    * for non-real constants yet.
105    * */
106   if (get_const_class(right) == REAL_CONSTANT) {
107     ir_node *left  = get_Sub_left(n);
108     ir_node *block = get_nodes_block(n);
109     ir_mode *mode  = get_irn_mode(n);
110     dbg_info *dbg  = get_irn_dbg_info(n);
111     ir_node *irn, *c;
112
113     switch (get_const_class(left)) {
114       case REAL_CONSTANT:
115         irn = optimize_in_place(n);
116         if (irn != n) {
117           exchange(n, irn);
118           return 1;
119         }
120         return 0;
121       case NO_CONSTANT:
122         break;
123       default:
124         /* already constant, nothing to do */
125         return 0;
126     }
127
128     c   = new_r_Const(current_ir_graph, block, mode, get_mode_null(mode));
129     irn = new_rd_Sub(dbg, current_ir_graph, block, c, right, mode);
130
131     irn = new_rd_Add(dbg, current_ir_graph, block, left, irn, get_irn_mode(n));
132
133 /*
134     printf("Applied: %s - %s => %s + (-%s)\n",
135         get_irn_opname(get_Sub_left(n)), get_irn_opname(c),
136         get_irn_opname(get_Sub_left(n)), get_irn_opname(c) );
137 */
138     exchange(n, irn);
139
140     return 1;
141   }
142   return 0;
143 }
144
145 /** Retrieve a mode form the operands. We need this, because
146  * Add and Sub are allowed to operate on (P, Is)
147  */
148 static ir_mode *get_mode_from_ops(ir_node *op1, ir_node *op2)
149 {
150   ir_mode *m1, *m2;
151
152   m1 = get_irn_mode(op1);
153   if (mode_is_reference(m1))
154     return m1;
155
156   m2 = get_irn_mode(op2);
157   if (mode_is_reference(m2))
158     return m2;
159
160   assert(m1 == m2);
161
162   return m1;
163 }
164
165 /**
166  * reassociate a commutative Binop
167  *
168  * BEWARE: this rule leads to a potential loop, if
169  * all two operands are are constant expressions and the third is a
170  * constant, so avoid this situation.
171  */
172 static int reassoc_commutative(ir_node *n)
173 {
174   ir_op *op      = get_irn_op(n);
175   ir_node *block = get_nodes_block(n);
176   ir_node *t1, *c1;
177
178   get_comm_Binop_ops(n, &t1, &c1);
179
180   if (get_irn_op(t1) == op) {
181     ir_node *t2, *c2;
182     const_class_t c_c1, c_c2, c_t2;
183
184     get_comm_Binop_ops(t1, &t2, &c2);
185
186     /* do not optimize Bad nodes, will fail later */
187     if (is_Bad(t2))
188       return 0;
189
190     c_c1 = get_const_class(c1);
191     c_c2 = get_const_class(c2);
192     c_t2 = get_const_class(t2);
193
194     if ( ((c_c1 > NO_CONSTANT) & (c_t2 > NO_CONSTANT)) &&
195          ((((c_c1 ^ c_c2 ^ c_t2) & CONST_EXPR) == 0) || ((c_c1 & c_c2 & c_t2) == CONST_EXPR)) ) {
196       /* all three are constant and either all are constant expressions or two of them are:
197        * then, applying this rule would lead into a cycle
198        *
199        * Note that if t2 is a onstant so is c2, so we save one test.
200        */
201       return 0;
202     }
203
204     if ((c_c1 != NO_CONSTANT) & (c_c2 != NO_CONSTANT)) {
205       /* handles rules R7, R8, R9, R10:
206        * convert c1 .OP. (c2 .OP. x) => (c1 .OP. c2) .OP. x
207        */
208       ir_node *irn, *in[2];
209       ir_mode *mode, *mode_c1 = get_irn_mode(c1), *mode_c2 = get_irn_mode(c2);
210
211       /* It might happen, that c1 and c2 have different modes, for instance Is and Iu.
212        * Handle this here.
213        */
214       if (mode_c1 != mode_c2) {
215         if (mode_is_int(mode_c1) && mode_is_int(mode_c2)) {
216           /* get the bigger one */
217           if (get_mode_size_bits(mode_c1) > get_mode_size_bits(mode_c2))
218             c2 = new_r_Conv(current_ir_graph, block, c2, mode_c1);
219           else if (get_mode_size_bits(mode_c1) < get_mode_size_bits(mode_c2))
220             c1 = new_r_Conv(current_ir_graph, block, c1, mode_c2);
221           else {
222             /* Try to cast the real const */
223             if (c_c1 == REAL_CONSTANT)
224               c1 = new_r_Conv(current_ir_graph, block, c1, mode_c2);
225             else
226               c2 = new_r_Conv(current_ir_graph, block, c2, mode_c1);
227           }
228         }
229       }
230
231       in[0] = c1;
232       in[1] = c2;
233
234       mode = get_mode_from_ops(in[0], in[1]);
235       in[0] = optimize_node(new_ir_node(NULL, current_ir_graph, block, op, mode, 2, in));
236       in[1] = t2;
237
238       mode = get_mode_from_ops(in[0], in[1]);
239       irn   = optimize_node(new_ir_node(NULL, current_ir_graph, block, op, mode, 2, in));
240
241 /*
242       printf("Applied: %s .%s. (%s .%s. %s) => (%s .%s. %s) .%s. %s\n",
243           get_irn_opname(c1), get_irn_opname(n), get_irn_opname(c2), get_irn_opname(n), get_irn_opname(t2),
244           get_irn_opname(c1), get_irn_opname(n), get_irn_opname(c2), get_irn_opname(n), get_irn_opname(t2));
245   */
246       /*
247        * in some rare cases it can really happen that we get the same node back.
248        * This might be happen in dead loops, were the Phi nodes are already gone away.
249        * So check this.
250       */
251       if (n != irn) {
252         exchange(n, irn);
253         return 1;
254       }
255     }
256   }
257   return 0;
258 }
259
260 #define reassoc_Add  reassoc_commutative
261 #define reassoc_And  reassoc_commutative
262 #define reassoc_Or   reassoc_commutative
263 #define reassoc_Eor  reassoc_commutative
264
265 /**
266  * reassociate using distibutive law for Mul and Add/Sub
267  */
268 static int reassoc_Mul(ir_node *n)
269 {
270   ir_node *add_sub, *c;
271   ir_op *op;
272
273   if (reassoc_commutative(n))
274     return 1;
275
276   get_comm_Binop_ops(n, &add_sub, &c);
277   op = get_irn_op(add_sub);
278
279   /* handles rules R11, R12, R13, R14, R15, R16, R17, R18, R19, R20 */
280   if (op == op_Add || op == op_Sub) {
281     ir_mode *mode = get_irn_mode(n);
282     ir_node *irn, *block, *t1, *t2, *in[2];
283
284     block = get_nodes_block(n);
285     t1 = get_binop_left(add_sub);
286     t2 = get_binop_right(add_sub);
287
288     in[0] = new_rd_Mul(NULL, current_ir_graph, block, c, t1, mode);
289     in[1] = new_rd_Mul(NULL, current_ir_graph, block, c, t2, mode);
290
291     mode  = get_mode_from_ops(in[0], in[1]);
292     irn   = optimize_node(new_ir_node(NULL, current_ir_graph, block, op, mode, 2, in));
293
294 /*
295     printf("Applied: (%s .%s. %s) %s %s => (%s %s %s) .%s. (%s %s %s)\n",
296         get_irn_opname(t1), get_op_name(op), get_irn_opname(t2), get_irn_opname(n), get_irn_opname(c),
297         get_irn_opname(t1), get_irn_opname(n), get_irn_opname(c),
298         get_op_name(op),
299         get_irn_opname(t2), get_irn_opname(n), get_irn_opname(c));
300 */
301     exchange(n, irn);
302
303     return 1;
304   }
305   return 0;
306 }
307
308 /**
309  * The walker for the reassociation
310  */
311 static void do_reassociation(ir_node *n, void *env)
312 {
313   walker_t *wenv = env;
314   int res;
315
316   stat_reassociate(1);
317
318   /* reassociation must run until fixpoint */
319   do {
320     ir_op   *op    = get_irn_op(n);
321     ir_mode *mode  = get_irn_mode(n);
322
323     res = 0;
324
325     /* reassociation works only for integer or reference modes */
326     if (op->reassociate && (mode_is_int(mode) || mode_is_reference(mode))) {
327       res = op->reassociate(n);
328       if (res) {
329         wenv->changes = 1;
330
331         /* we need a skip here, or we will see an Id in the next iteration */
332         n = skip_Id(n);
333       }
334     }
335   } while (res == 1);
336
337   stat_reassociate(0);
338 }
339
340 /*
341  * do the reassociation
342  */
343 void optimize_reassociation(ir_graph *irg)
344 {
345   walker_t env;
346
347   assert(get_irg_phase_state(irg) != phase_building);
348
349   /* reassociation needs constant folding */
350   if (!get_opt_reassociation() || !get_opt_constant_folding())
351     return;
352
353   env.changes = 0;
354
355   irg_walk_graph(irg, NULL, do_reassociation, &env);
356
357   /* now we have collected enough information, optimize */
358   irg_walk_graph(irg, NULL, do_reassociation, &env);
359
360   /* Handle graph state */
361   if (env.changes) {
362     if (get_irg_outs_state(current_ir_graph) == outs_consistent)
363       set_irg_outs_inconsistent(current_ir_graph);
364   }
365 }
366
367 /* initialise the reassociation by adding operations to some opcodes */
368 void firm_init_reassociation(void)
369 {
370 #define INIT(a) op_##a->reassociate  = reassoc_##a;
371   INIT(Mul);
372   INIT(Add);
373   INIT(Sub);
374   INIT(And);
375   INIT(Or);
376   INIT(Eor);
377 #undef CASE
378 }