Fixed construction of spill-slots and frame type. Aligment was not taken into account...
[libfirm] / ir / be / ia32 / ia32_optimize.c
1 #ifdef HAVE_CONFIG_H
2 #include "config.h"
3 #endif
4
5 #include "irnode.h"
6 #include "irprog_t.h"
7 #include "ircons.h"
8 #include "firm_types.h"
9 #include "iredges.h"
10 #include "tv.h"
11 #include "irgmod.h"
12
13 #include "../be_t.h"
14 #include "../beabi.h"
15 #include "../benode_t.h"
16 #include "../besched_t.h"
17
18 #include "ia32_new_nodes.h"
19 #include "bearch_ia32_t.h"
20 #include "gen_ia32_regalloc_if.h"     /* the generated interface (register type and class defenitions) */
21
22 #undef is_NoMem
23 #define is_NoMem(irn) (get_irn_op(irn) == op_NoMem)
24
25 typedef int is_op_func_t(const ir_node *n);
26
27 /**
28  * checks if a node represents the NOREG value
29  */
30 static int be_is_NoReg(ia32_code_gen_t *cg, const ir_node *irn) {
31   be_abi_irg_t *babi = cg->birg->abi;
32         const arch_register_t *fp_noreg = USE_SSE2(cg) ?
33                 &ia32_xmm_regs[REG_XMM_NOREG] : &ia32_vfp_regs[REG_VFP_NOREG];
34
35         return (be_abi_get_callee_save_irn(babi, &ia32_gp_regs[REG_GP_NOREG]) == irn) ||
36                (be_abi_get_callee_save_irn(babi, fp_noreg) == irn);
37 }
38
39
40
41 /*************************************************
42  *   _____                _              _
43  *  / ____|              | |            | |
44  * | |     ___  _ __  ___| |_ __ _ _ __ | |_ ___
45  * | |    / _ \| '_ \/ __| __/ _` | '_ \| __/ __|
46  * | |___| (_) | | | \__ \ || (_| | | | | |_\__ \
47  *  \_____\___/|_| |_|___/\__\__,_|_| |_|\__|___/
48  *
49  *************************************************/
50
51 /**
52  * creates a unique ident by adding a number to a tag
53  *
54  * @param tag   the tag string, must contain a %d if a number
55  *              should be added
56  */
57 static ident *unique_id(const char *tag)
58 {
59         static unsigned id = 0;
60         char str[256];
61
62         snprintf(str, sizeof(str), tag, ++id);
63         return new_id_from_str(str);
64 }
65
66
67
68 /**
69  * Transforms a SymConst.
70  *
71  * @param mod     the debug module
72  * @param block   the block the new node should belong to
73  * @param node    the ir SymConst node
74  * @param mode    mode of the SymConst
75  * @return the created ia32 Const node
76  */
77 static ir_node *gen_SymConst(ia32_transform_env_t *env) {
78         ir_node  *cnst;
79         dbg_info *dbg   = env->dbg;
80         ir_mode  *mode  = env->mode;
81         ir_graph *irg   = env->irg;
82         ir_node  *block = env->block;
83
84         if (mode_is_float(mode)) {
85                 if (USE_SSE2(env->cg))
86                         cnst = new_rd_ia32_fConst(dbg, irg, block, mode);
87                 else
88                         cnst = new_rd_ia32_vfConst(dbg, irg, block, mode);
89         }
90         else {
91                 cnst = new_rd_ia32_Const(dbg, irg, block, mode);
92         }
93         set_ia32_Const_attr(cnst, env->irn);
94         return cnst;
95 }
96
97 /**
98  * Get a primitive type for a mode.
99  */
100 static ir_type *get_prim_type(pmap *types, ir_mode *mode)
101 {
102         pmap_entry *e = pmap_find(types, mode);
103         ir_type *res;
104
105         if (! e) {
106                 char buf[64];
107                 snprintf(buf, sizeof(buf), "prim_type_%s", get_mode_name(mode));
108                 res = new_type_primitive(new_id_from_str(buf), mode);
109                 pmap_insert(types, mode, res);
110         }
111         else
112                 res = e->value;
113         return res;
114 }
115
116 /**
117  * Get an entity that is initialized with a tarval
118  */
119 static entity *get_entity_for_tv(ia32_code_gen_t *cg, ir_node *cnst)
120 {
121         tarval *tv    = get_Const_tarval(cnst);
122         pmap_entry *e = pmap_find(cg->tv_ent, tv);
123         entity *res;
124         ir_graph *rem;
125
126         if (! e) {
127                 ir_mode *mode = get_irn_mode(cnst);
128                 ir_type *tp = get_Const_type(cnst);
129                 if (tp == firm_unknown_type)
130                         tp = get_prim_type(cg->types, mode);
131
132                 res = new_entity(get_glob_type(), unique_id("ia32FloatCnst_%u"), tp);
133
134                 set_entity_ld_ident(res, get_entity_ident(res));
135                 set_entity_visibility(res, visibility_local);
136                 set_entity_variability(res, variability_constant);
137                 set_entity_allocation(res, allocation_static);
138
139                  /* we create a new entity here: It's initialization must resist on the
140                     const code irg */
141                 rem = current_ir_graph;
142                 current_ir_graph = get_const_code_irg();
143                 set_atomic_ent_value(res, new_Const_type(tv, tp));
144                 current_ir_graph = rem;
145         }
146         else
147                 res = e->value;
148         return res;
149 }
150
151 /**
152  * Transforms a Const.
153  *
154  * @param mod     the debug module
155  * @param block   the block the new node should belong to
156  * @param node    the ir Const node
157  * @param mode    mode of the Const
158  * @return the created ia32 Const node
159  */
160 static ir_node *gen_Const(ia32_transform_env_t *env) {
161         ir_node *cnst;
162         symconst_symbol sym;
163         ir_graph *irg   = env->irg;
164         ir_node  *block = env->block;
165         ir_node  *node  = env->irn;
166         dbg_info *dbg   = env->dbg;
167         ir_mode  *mode  = env->mode;
168
169         if (mode_is_float(mode)) {
170                 if (! USE_SSE2(env->cg)) {
171                         cnst_classify_t clss = classify_Const(node);
172
173                         if (clss == CNST_NULL)
174                                 return new_rd_ia32_vfldz(dbg, irg, block, mode);
175                         else if (clss == CNST_ONE)
176                                 return new_rd_ia32_vfld1(dbg, irg, block, mode);
177                 }
178                 sym.entity_p = get_entity_for_tv(env->cg, node);
179
180                 cnst = new_rd_SymConst(dbg, irg, block, sym, symconst_addr_ent);
181                 env->irn = cnst;
182                 cnst = gen_SymConst(env);
183         }
184         else {
185                 cnst = new_rd_ia32_Const(dbg, irg, block, get_irn_mode(node));
186                 set_ia32_Const_attr(cnst, node);
187         }
188         return cnst;
189 }
190
191
192
193 /**
194  * Transforms (all) Const's into ia32_Const and places them in the
195  * block where they are used (or in the cfg-pred Block in case of Phi's).
196  * Additionally all reference nodes are changed into mode_Is nodes.
197  */
198 void ia32_place_consts_set_modes(ir_node *irn, void *env) {
199         ia32_code_gen_t      *cg = env;
200         ia32_transform_env_t  tenv;
201         ir_mode              *mode;
202         ir_node              *pred, *cnst;
203         int                   i;
204         opcode                opc;
205
206         if (is_Block(irn))
207                 return;
208
209         mode = get_irn_mode(irn);
210
211         /* transform all reference nodes into mode_Is nodes */
212         if (mode_is_reference(mode)) {
213                 mode = mode_Is;
214                 set_irn_mode(irn, mode);
215         }
216
217         tenv.block    = get_nodes_block(irn);
218         tenv.cg       = cg;
219         tenv.irg      = cg->irg;
220         DEBUG_ONLY(tenv.mod      = cg->mod;)
221
222         /* Loop over all predecessors and check for Sym/Const nodes */
223         for (i = get_irn_arity(irn) - 1; i >= 0; --i) {
224                 pred      = get_irn_n(irn, i);
225                 cnst      = NULL;
226                 opc       = get_irn_opcode(pred);
227                 tenv.irn  = pred;
228                 tenv.mode = get_irn_mode(pred);
229                 tenv.dbg  = get_irn_dbg_info(pred);
230
231                 /* If it's a Phi, then we need to create the */
232                 /* new Const in it's predecessor block       */
233                 if (is_Phi(irn)) {
234                         tenv.block = get_Block_cfgpred_block(get_nodes_block(irn), i);
235                 }
236
237                 /* put the const into the block where the original const was */
238                 if (! cg->opt.placecnst) {
239                         tenv.block = get_nodes_block(pred);
240                 }
241
242                 switch (opc) {
243                         case iro_Const:
244                                 cnst = gen_Const(&tenv);
245                                 break;
246                         case iro_SymConst:
247                                 cnst = gen_SymConst(&tenv);
248                                 break;
249                         default:
250                                 break;
251                 }
252
253                 /* if we found a const, then set it */
254                 if (cnst) {
255                         set_irn_n(irn, i, cnst);
256                 }
257         }
258 }
259
260
261
262 /********************************************************************************************************
263  *  _____                _           _         ____        _   _           _          _   _
264  * |  __ \              | |         | |       / __ \      | | (_)         (_)        | | (_)
265  * | |__) |__  ___ _ __ | |__   ___ | | ___  | |  | |_ __ | |_ _ _ __ ___  _ ______ _| |_ _  ___  _ __
266  * |  ___/ _ \/ _ \ '_ \| '_ \ / _ \| |/ _ \ | |  | | '_ \| __| | '_ ` _ \| |_  / _` | __| |/ _ \| '_ \
267  * | |  |  __/  __/ |_) | | | | (_) | |  __/ | |__| | |_) | |_| | | | | | | |/ / (_| | |_| | (_) | | | |
268  * |_|   \___|\___| .__/|_| |_|\___/|_|\___|  \____/| .__/ \__|_|_| |_| |_|_/___\__,_|\__|_|\___/|_| |_|
269  *                | |                               | |
270  *                |_|                               |_|
271  ********************************************************************************************************/
272
273 /**
274  * NOTE: THESE PEEPHOLE OPTIMIZATIONS MUST BE CALLED AFTER SCHEDULING AND REGISTER ALLOCATION.
275  */
276
277 static int ia32_cnst_compare(ir_node *n1, ir_node *n2) {
278         return get_ia32_id_cnst(n1) == get_ia32_id_cnst(n2);
279 }
280
281 /**
282  * Checks for potential CJmp/CJmpAM optimization candidates.
283  */
284 static ir_node *ia32_determine_cjmp_cand(ir_node *irn, is_op_func_t *is_op_func) {
285         ir_node *cand = NULL;
286         ir_node *prev = sched_prev(irn);
287
288         if (is_Block(prev)) {
289                 if (get_Block_n_cfgpreds(prev) == 1)
290                         prev = get_Block_cfgpred(prev, 0);
291                 else
292                         prev = NULL;
293         }
294
295         /* The predecessor must be a ProjX. */
296         if (prev && is_Proj(prev) && get_irn_mode(prev) == mode_X) {
297                 prev = get_Proj_pred(prev);
298
299                 if (is_op_func(prev))
300                         cand = prev;
301         }
302
303         return cand;
304 }
305
306 static int is_TestJmp_cand(const ir_node *irn) {
307         return is_ia32_TestJmp(irn) || is_ia32_And(irn);
308 }
309
310 /**
311  * Checks if two consecutive arguments of cand matches
312  * the two arguments of irn (TestJmp).
313  */
314 static int is_TestJmp_replacement(ir_node *cand, ir_node *irn) {
315         ir_node *in1       = get_irn_n(irn, 0);
316         ir_node *in2       = get_irn_n(irn, 1);
317         int      i, n      = get_irn_arity(cand);
318         int      same_args = 0;
319
320         for (i = 0; i < n - 1; i++) {
321                 if (get_irn_n(cand, i)     == in1 &&
322                         get_irn_n(cand, i + 1) == in2)
323                 {
324                         same_args = 1;
325                         break;
326                 }
327         }
328
329         if (same_args)
330                 return ia32_cnst_compare(cand, irn);
331
332         return 0;
333 }
334
335 /**
336  * Tries to replace a TestJmp by a CJmp or CJmpAM (in case of And)
337  */
338 static void ia32_optimize_TestJmp(ir_node *irn, ia32_code_gen_t *cg) {
339         ir_node *cand    = ia32_determine_cjmp_cand(irn, is_TestJmp_cand);
340         int      replace = 0;
341
342         /* we found a possible candidate */
343         replace = cand ? is_TestJmp_replacement(cand, irn) : 0;
344
345         if (replace) {
346                 DBG((cg->mod, LEVEL_1, "replacing %+F by ", irn));
347
348                 if (is_ia32_And(cand))
349                         set_irn_op(irn, op_ia32_CJmpAM);
350                 else
351                         set_irn_op(irn, op_ia32_CJmp);
352
353                 DB((cg->mod, LEVEL_1, "%+F\n", irn));
354         }
355 }
356
357 static int is_CondJmp_cand(const ir_node *irn) {
358         return is_ia32_CondJmp(irn) || is_ia32_Sub(irn);
359 }
360
361 /**
362  * Checks if the arguments of cand are the same of irn.
363  */
364 static int is_CondJmp_replacement(ir_node *cand, ir_node *irn) {
365         int i, n      = get_irn_arity(cand);
366         int same_args = 1;
367
368         for (i = 0; i < n; i++) {
369                 if (get_irn_n(cand, i) == get_irn_n(irn, i)) {
370                         same_args = 0;
371                         break;
372                 }
373         }
374
375         if (same_args)
376                 return ia32_cnst_compare(cand, irn);
377
378         return 0;
379 }
380
381 /**
382  * Tries to replace a CondJmp by a CJmpAM
383  */
384 static void ia32_optimize_CondJmp(ir_node *irn, ia32_code_gen_t *cg) {
385         ir_node *cand    = ia32_determine_cjmp_cand(irn, is_CondJmp_cand);
386         int      replace = 0;
387
388         /* we found a possible candidate */
389         replace = cand ? is_CondJmp_replacement(cand, irn) : 0;
390
391         if (replace) {
392                 DBG((cg->mod, LEVEL_1, "replacing %+F by ", irn));
393
394                 set_irn_op(irn, op_ia32_CJmp);
395
396                 DB((cg->mod, LEVEL_1, "%+F\n", irn));
397         }
398 }
399
400 /**
401  * Performs Peephole Optimizations
402  */
403 void ia32_peephole_optimization(ir_node *irn, void *env) {
404         if (is_ia32_TestJmp(irn)) {
405                 ia32_optimize_TestJmp(irn, env);
406         }
407         else if (is_ia32_CondJmp(irn)) {
408                 ia32_optimize_CondJmp(irn, env);
409         }
410 #if 0
411         else if (be_is_IncSP(irn)) {
412                 ir_node *prev = sched_prev(irn);
413
414                 if (be_is_IncSP(prev)) {
415                         /* two scheduled IncSP one-after-one, kill the first one */
416                         unsigned       prev_offs = be_get_IncSP_offset(prev);
417                         be_stack_dir_t prev_dir  = be_get_IncSP_direction(prev);
418                         unsigned       curr_offs = be_get_IncSP_offset(irn);
419                         be_stack_dir_t curr_dir  = be_get_IncSP_direction(irn);
420
421                         int new_ofs = prev_offs * (prev_dir == be_stack_dir_expand ? -1 : +1) +
422                                       curr_offs * (curr_dir == be_stack_dir_expand ? -1 : +1);
423
424                         if (new_ofs < 0) {
425                                 new_ofs  = -new_ofs;
426                                 curr_dir = be_stack_dir_expand;
427                         }
428                         else
429                                 curr_dir = be_stack_dir_shrink;
430                         be_set_IncSP_offset(prev, 0);
431                         be_set_IncSP_offset(irn, (unsigned)new_ofs);
432                         be_set_IncSP_direction(irn, curr_dir);
433                 }
434         }
435 #endif
436 }
437
438
439
440 /******************************************************************
441  *              _     _                   __  __           _
442  *     /\      | |   | |                 |  \/  |         | |
443  *    /  \   __| | __| |_ __ ___  ___ ___| \  / | ___   __| | ___
444  *   / /\ \ / _` |/ _` | '__/ _ \/ __/ __| |\/| |/ _ \ / _` |/ _ \
445  *  / ____ \ (_| | (_| | | |  __/\__ \__ \ |  | | (_) | (_| |  __/
446  * /_/    \_\__,_|\__,_|_|  \___||___/___/_|  |_|\___/ \__,_|\___|
447  *
448  ******************************************************************/
449
450 static int node_is_ia32_comm(const ir_node *irn) {
451         return is_ia32_irn(irn) ? is_ia32_commutative(irn) : 0;
452 }
453
454 static int ia32_get_irn_n_edges(const ir_node *irn) {
455         const ir_edge_t *edge;
456         int cnt = 0;
457
458         foreach_out_edge(irn, edge) {
459                 cnt++;
460         }
461
462         return cnt;
463 }
464
465 /**
466  * Returns the first mode_M Proj connected to irn.
467  */
468 static ir_node *get_mem_proj(const ir_node *irn) {
469         const ir_edge_t *edge;
470         ir_node         *src;
471
472         assert(get_irn_mode(irn) == mode_T && "expected mode_T node");
473
474         foreach_out_edge(irn, edge) {
475                 src = get_edge_src_irn(edge);
476
477                 assert(is_Proj(src) && "Proj expected");
478
479                 if (get_irn_mode(src) == mode_M)
480                         return src;
481         }
482
483         return NULL;
484 }
485
486 /**
487  * Returns the first Proj with mode != mode_M connected to irn.
488  */
489 static ir_node *get_res_proj(const ir_node *irn) {
490         const ir_edge_t *edge;
491         ir_node         *src;
492
493         assert(get_irn_mode(irn) == mode_T && "expected mode_T node");
494
495         foreach_out_edge(irn, edge) {
496                 src = get_edge_src_irn(edge);
497
498                 assert(is_Proj(src) && "Proj expected");
499
500                 if (get_irn_mode(src) != mode_M)
501                         return src;
502         }
503
504         return NULL;
505 }
506
507 /**
508  * Determines if pred is a Proj and if is_op_func returns true for it's predecessor.
509  *
510  * @param pred       The node to be checked
511  * @param is_op_func The check-function
512  * @return 1 if conditions are fulfilled, 0 otherwise
513  */
514 static int pred_is_specific_node(const ir_node *pred, is_op_func_t *is_op_func) {
515         if (is_Proj(pred) && is_op_func(get_Proj_pred(pred))) {
516                 return 1;
517         }
518
519         return 0;
520 }
521
522 /**
523  * Determines if pred is a Proj and if is_op_func returns true for it's predecessor
524  * and if the predecessor is in block bl.
525  *
526  * @param bl         The block
527  * @param pred       The node to be checked
528  * @param is_op_func The check-function
529  * @return 1 if conditions are fulfilled, 0 otherwise
530  */
531 static int pred_is_specific_nodeblock(const ir_node *bl, const ir_node *pred,
532         int (*is_op_func)(const ir_node *n))
533 {
534         if (is_Proj(pred)) {
535                 pred = get_Proj_pred(pred);
536                 if ((bl == get_nodes_block(pred)) && is_op_func(pred)) {
537                         return 1;
538                 }
539         }
540
541         return 0;
542 }
543
544
545
546 /**
547  * Checks if irn is a candidate for address calculation or address mode.
548  *
549  * address calculation (AC):
550  * - none of the operand must be a Load  within the same block OR
551  * - all Loads must have more than one user                    OR
552  * - the irn has a frame entity (it's a former FrameAddr)
553  *
554  * address mode (AM):
555  * - at least one operand has to be a Load within the same block AND
556  * - the load must not have other users than the irn             AND
557  * - the irn must not have a frame entity set
558  *
559  * @param block       The block the Loads must/not be in
560  * @param irn         The irn to check
561  * @param check_addr  1 if to check for address calculation, 0 otherwise
562  * return 1 if irn is a candidate for AC or AM, 0 otherwise
563  */
564 static int is_candidate(const ir_node *block, const ir_node *irn, int check_addr) {
565         ir_node *in;
566         int      n, is_cand = check_addr;
567
568         in = get_irn_n(irn, 2);
569
570         if (pred_is_specific_nodeblock(block, in, is_ia32_Ld)) {
571                 n         = ia32_get_irn_n_edges(in);
572                 is_cand   = check_addr ? (n == 1 ? 0 : is_cand) : (n == 1 ? 1 : is_cand);
573         }
574
575         in = get_irn_n(irn, 3);
576
577         if (pred_is_specific_nodeblock(block, in, is_ia32_Ld)) {
578                 n         = ia32_get_irn_n_edges(in);
579                 is_cand   = check_addr ? (n == 1 ? 0 : is_cand) : (n == 1 ? 1 : is_cand);
580         }
581
582         is_cand = get_ia32_frame_ent(irn) ? (check_addr ? 1 : 0) : is_cand;
583
584         return is_cand;
585 }
586
587 /**
588  * Compares the base and index addr and the load/store entities
589  * and returns 1 if they are equal.
590  */
591 static int load_store_addr_is_equal(const ir_node *load, const ir_node *store,
592                                                                         const ir_node *addr_b, const ir_node *addr_i)
593 {
594         int     is_equal = (addr_b == get_irn_n(load, 0)) && (addr_i == get_irn_n(load, 1));
595         entity *lent     = get_ia32_frame_ent(load);
596         entity *sent     = get_ia32_frame_ent(store);
597         ident  *lid      = get_ia32_am_sc(load);
598         ident  *sid      = get_ia32_am_sc(store);
599         char   *loffs    = get_ia32_am_offs(load);
600         char   *soffs    = get_ia32_am_offs(store);
601
602         /* are both entities set and equal? */
603         if (is_equal && (lent || sent))
604                 is_equal = lent && sent && (lent == sent);
605
606         /* are address mode idents set and equal? */
607         if (is_equal && (lid || sid))
608                 is_equal = lid && sid && (lid == sid);
609
610         /* are offsets set and equal */
611         if (is_equal && (loffs || soffs))
612                 is_equal = loffs && soffs && strcmp(loffs, soffs) == 0;
613
614         /* are the load and the store of the same mode? */
615         is_equal = is_equal ? get_ia32_ls_mode(load) == get_ia32_ls_mode(store) : 0;
616
617         return is_equal;
618 }
619
620
621
622 /**
623  * Folds Add or Sub to LEA if possible
624  */
625 static ir_node *fold_addr(ia32_code_gen_t *cg, ir_node *irn, ir_node *noreg) {
626         ir_graph   *irg        = get_irn_irg(irn);
627         dbg_info   *dbg        = get_irn_dbg_info(irn);
628         ir_node    *block      = get_nodes_block(irn);
629         ir_node    *res        = irn;
630         char       *offs       = NULL;
631         const char *offs_cnst  = NULL;
632         char       *offs_lea   = NULL;
633         int         scale      = 0;
634         int         isadd      = 0;
635         int         dolea      = 0;
636         int         have_am_sc = 0;
637         int         am_sc_sign = 0;
638         ident      *am_sc      = NULL;
639         ir_node    *left, *right, *temp;
640         ir_node    *base, *index;
641         ia32_am_flavour_t am_flav;
642         DEBUG_ONLY(firm_dbg_module_t *mod = cg->mod;)
643
644         if (is_ia32_Add(irn))
645                 isadd = 1;
646
647         left  = get_irn_n(irn, 2);
648         right = get_irn_n(irn, 3);
649
650         /* "normalize" arguments in case of add with two operands */
651         if  (isadd && ! be_is_NoReg(cg, right)) {
652                 /* put LEA == ia32_am_O as right operand */
653                 if (is_ia32_Lea(left) && get_ia32_am_flavour(left) == ia32_am_O) {
654                         set_irn_n(irn, 2, right);
655                         set_irn_n(irn, 3, left);
656                         temp  = left;
657                         left  = right;
658                         right = temp;
659                 }
660
661                 /* put LEA != ia32_am_O as left operand */
662                 if (is_ia32_Lea(right) && get_ia32_am_flavour(right) != ia32_am_O) {
663                         set_irn_n(irn, 2, right);
664                         set_irn_n(irn, 3, left);
665                         temp  = left;
666                         left  = right;
667                         right = temp;
668                 }
669
670                 /* put SHL as left operand iff left is NOT a LEA */
671                 if (! is_ia32_Lea(left) && pred_is_specific_node(right, is_ia32_Shl)) {
672                         set_irn_n(irn, 2, right);
673                         set_irn_n(irn, 3, left);
674                         temp  = left;
675                         left  = right;
676                         right = temp;
677                 }
678         }
679
680         base    = left;
681         index   = noreg;
682         offs    = NULL;
683         scale   = 0;
684         am_flav = 0;
685
686         /* check for operation with immediate */
687         if (is_ia32_ImmConst(irn)) {
688                 DBG((mod, LEVEL_1, "\tfound op with imm const"));
689
690                 offs_cnst = get_ia32_cnst(irn);
691                 dolea     = 1;
692         }
693         else if (is_ia32_ImmSymConst(irn)) {
694                 DBG((mod, LEVEL_1, "\tfound op with imm symconst"));
695
696                 have_am_sc = 1;
697                 dolea      = 1;
698                 am_sc      = get_ia32_id_cnst(irn);
699                 am_sc_sign = is_ia32_am_sc_sign(irn);
700         }
701
702         /* determine the operand which needs to be checked */
703         if (be_is_NoReg(cg, right)) {
704                 temp = left;
705         }
706         else {
707                 temp = right;
708         }
709
710         /* check if right operand is AMConst (LEA with ia32_am_O)  */
711         /* but we can only eat it up if there is no other symconst */
712         /* because the linker won't accept two symconsts           */
713         if (! have_am_sc && is_ia32_Lea(temp) && get_ia32_am_flavour(temp) == ia32_am_O) {
714                 DBG((mod, LEVEL_1, "\tgot op with LEA am_O"));
715
716                 offs_lea   = get_ia32_am_offs(temp);
717                 am_sc      = get_ia32_am_sc(temp);
718                 am_sc_sign = is_ia32_am_sc_sign(temp);
719                 have_am_sc = 1;
720                 dolea      = 1;
721         }
722
723         if (isadd) {
724                 /* default for add -> make right operand to index */
725                 index = right;
726                 dolea = 1;
727
728                 DBG((mod, LEVEL_1, "\tgot LEA candidate with index %+F\n", index));
729
730                 /* determine the operand which needs to be checked */
731                 temp = left;
732                 if (is_ia32_Lea(left)) {
733                         temp = right;
734                 }
735
736                 /* check for SHL 1,2,3 */
737                 if (pred_is_specific_node(temp, is_ia32_Shl)) {
738                         temp = get_Proj_pred(temp);
739
740                         if (get_ia32_Immop_tarval(temp)) {
741                                 scale = get_tarval_long(get_ia32_Immop_tarval(temp));
742
743                                 if (scale <= 3) {
744                                         index = get_irn_n(temp, 2);
745
746                                         DBG((mod, LEVEL_1, "\tgot scaled index %+F\n", index));
747                                 }
748                         }
749                 }
750
751                 /* fix base */
752                 if (! be_is_NoReg(cg, index)) {
753                         /* if we have index, but left == right -> no base */
754                         if (left == right) {
755                                 base = noreg;
756                         }
757                         else if (! is_ia32_Lea(left) && (index != right)) {
758                                 /* index != right -> we found a good Shl           */
759                                 /* left  != LEA   -> this Shl was the left operand */
760                                 /* -> base is right operand                        */
761                                 base = right;
762                         }
763                 }
764         }
765
766         /* Try to assimilate a LEA as left operand */
767         if (is_ia32_Lea(left) && (get_ia32_am_flavour(left) != ia32_am_O)) {
768                 am_flav = get_ia32_am_flavour(left);
769
770                 /* If we have an Add with a real right operand (not NoReg) and  */
771                 /* the LEA contains already an index calculation then we create */
772                 /* a new LEA.                                                   */
773                 /* If the LEA contains already a frame_entity then we also      */
774                 /* create a new one  otherwise we would loose it.               */
775                 if ((isadd && !be_is_NoReg(cg, index) && (am_flav & ia32_am_I)) || /* no new LEA if index already set */
776                         get_ia32_frame_ent(left)                                    || /* no new LEA if stack access */
777                         (have_am_sc && get_ia32_am_sc(left)))                          /* no new LEA if AM symconst already present */
778                 {
779                         DBG((mod, LEVEL_1, "\tleave old LEA, creating new one\n"));
780                 }
781                 else {
782                         DBG((mod, LEVEL_1, "\tgot LEA as left operand ... assimilating\n"));
783                         offs       = get_ia32_am_offs(left);
784                         am_sc      = have_am_sc ? am_sc : get_ia32_am_sc(left);
785                         have_am_sc = am_sc ? 1 : 0;
786                         am_sc_sign = is_ia32_am_sc_sign(left);
787                         base       = get_irn_n(left, 0);
788                         index      = get_irn_n(left, 1);
789                         scale      = get_ia32_am_scale(left);
790                 }
791         }
792
793         /* ok, we can create a new LEA */
794         if (dolea) {
795                 res = new_rd_ia32_Lea(dbg, irg, block, base, index, mode_Is);
796
797                 /* add the old offset of a previous LEA */
798                 if (offs) {
799                         add_ia32_am_offs(res, offs);
800                 }
801
802                 /* add the new offset */
803                 if (isadd) {
804                         if (offs_cnst) {
805                                 add_ia32_am_offs(res, offs_cnst);
806                         }
807                         if (offs_lea) {
808                                 add_ia32_am_offs(res, offs_lea);
809                         }
810                 }
811                 else {
812                         /* either lea_O-cnst, -cnst or -lea_O  */
813                         if (offs_cnst) {
814                                 if (offs_lea) {
815                                         add_ia32_am_offs(res, offs_lea);
816                                 }
817
818                                 sub_ia32_am_offs(res, offs_cnst);
819                         }
820                         else {
821                                 sub_ia32_am_offs(res, offs_lea);
822                         }
823                 }
824
825                 /* set the address mode symconst */
826                 if (have_am_sc) {
827                         set_ia32_am_sc(res, am_sc);
828                         if (am_sc_sign)
829                                 set_ia32_am_sc_sign(res);
830                 }
831
832                 /* copy the frame entity (could be set in case of Add */
833                 /* which was a FrameAddr) */
834                 set_ia32_frame_ent(res, get_ia32_frame_ent(irn));
835
836                 if (is_ia32_use_frame(irn))
837                         set_ia32_use_frame(res);
838
839                 /* set scale */
840                 set_ia32_am_scale(res, scale);
841
842                 am_flav = ia32_am_N;
843                 /* determine new am flavour */
844                 if (offs || offs_cnst || offs_lea) {
845                         am_flav |= ia32_O;
846                 }
847                 if (! be_is_NoReg(cg, base)) {
848                         am_flav |= ia32_B;
849                 }
850                 if (! be_is_NoReg(cg, index)) {
851                         am_flav |= ia32_I;
852                 }
853                 if (scale > 0) {
854                         am_flav |= ia32_S;
855                 }
856                 set_ia32_am_flavour(res, am_flav);
857
858                 set_ia32_op_type(res, ia32_AddrModeS);
859
860                 DBG((mod, LEVEL_1, "\tLEA [%+F + %+F * %d + %s]\n", base, index, scale, get_ia32_am_offs(res)));
861
862                 /* get the result Proj of the Add/Sub */
863                 irn = get_res_proj(irn);
864
865                 assert(irn && "Couldn't find result proj");
866
867                 /* exchange the old op with the new LEA */
868                 exchange(irn, res);
869         }
870
871         return res;
872 }
873
874 /**
875  * Optimizes a pattern around irn to address mode if possible.
876  */
877 void ia32_optimize_am(ir_node *irn, void *env) {
878         ia32_code_gen_t   *cg   = env;
879         ir_node           *res  = irn;
880         dbg_info          *dbg;
881         ir_mode           *mode;
882         ir_node           *block, *noreg_gp, *noreg_fp;
883         ir_node           *left, *right, *temp;
884         ir_node           *store, *load, *mem_proj;
885         ir_node           *succ, *addr_b, *addr_i;
886         int                check_am_src = 0;
887         DEBUG_ONLY(firm_dbg_module_t *mod = cg->mod;)
888
889         if (! is_ia32_irn(irn))
890                 return;
891
892         dbg      = get_irn_dbg_info(irn);
893         mode     = get_irn_mode(irn);
894         block    = get_nodes_block(irn);
895         noreg_gp = ia32_new_NoReg_gp(cg);
896         noreg_fp = ia32_new_NoReg_fp(cg);
897
898         DBG((mod, LEVEL_1, "checking for AM\n"));
899
900         /* 1st part: check for address calculations and transform the into Lea */
901
902         /* Following cases can occur:                                  */
903         /* - Sub (l, imm) -> LEA [base - offset]                       */
904         /* - Sub (l, r == LEA with ia32_am_O)   -> LEA [base - offset] */
905         /* - Add (l, imm) -> LEA [base + offset]                       */
906         /* - Add (l, r == LEA with ia32_am_O)  -> LEA [base + offset]  */
907         /* - Add (l == LEA with ia32_am_O, r)  -> LEA [base + offset]  */
908         /* - Add (l, r) -> LEA [base + index * scale]                  */
909         /*              with scale > 1 iff l/r == shl (1,2,3)          */
910
911         if (is_ia32_Sub(irn) || is_ia32_Add(irn)) {
912                 left  = get_irn_n(irn, 2);
913                 right = get_irn_n(irn, 3);
914
915             /* Do not try to create a LEA if one of the operands is a Load. */
916                 /* check is irn is a candidate for address calculation */
917                 if (is_candidate(block, irn, 1)) {
918                         DBG((mod, LEVEL_1, "\tfound address calculation candidate %+F ... ", irn));
919                         res = fold_addr(cg, irn, noreg_gp);
920
921                         if (res == irn)
922                                 DB((mod, LEVEL_1, "transformed into %+F\n", res));
923                         else
924                                 DB((mod, LEVEL_1, "not transformed\n"));
925                 }
926         }
927
928         /* 2nd part: fold following patterns:                                               */
929         /* - Load  -> LEA into Load  } TODO: If the LEA is used by more than one Load/Store */
930         /* - Store -> LEA into Store }       it might be better to keep the LEA             */
931         /* - op -> Load into AMop with am_Source                                            */
932         /*   conditions:                                                                    */
933         /*     - op is am_Source capable AND                                                */
934         /*     - the Load is only used by this op AND                                       */
935         /*     - the Load is in the same block                                              */
936         /* - Store -> op -> Load  into AMop with am_Dest                                    */
937         /*   conditions:                                                                    */
938         /*     - op is am_Dest capable AND                                                  */
939         /*     - the Store uses the same address as the Load AND                            */
940         /*     - the Load is only used by this op AND                                       */
941         /*     - the Load and Store are in the same block AND                               */
942         /*     - nobody else uses the result of the op                                      */
943
944         if ((res == irn) && (get_ia32_am_support(irn) != ia32_am_None) && !is_ia32_Lea(irn)) {
945                 /* 1st: check for Load/Store -> LEA   */
946                 if (is_ia32_Ld(irn) || is_ia32_St(irn) || is_ia32_Store8Bit(irn)) {
947                         left = get_irn_n(irn, 0);
948
949                         if (is_ia32_Lea(left)) {
950                                 DBG((mod, LEVEL_1, "\nmerging %+F into %+F\n", left, irn));
951
952                                 /* get the AM attributes from the LEA */
953                                 add_ia32_am_offs(irn, get_ia32_am_offs(left));
954                                 set_ia32_am_scale(irn, get_ia32_am_scale(left));
955                                 set_ia32_am_flavour(irn, get_ia32_am_flavour(left));
956
957                                 set_ia32_am_sc(irn, get_ia32_am_sc(left));
958                                 if (is_ia32_am_sc_sign(left))
959                                         set_ia32_am_sc_sign(irn);
960
961                                 set_ia32_op_type(irn, is_ia32_Ld(irn) ? ia32_AddrModeS : ia32_AddrModeD);
962
963                                 /* set base and index */
964                                 set_irn_n(irn, 0, get_irn_n(left, 0));
965                                 set_irn_n(irn, 1, get_irn_n(left, 1));
966
967                                 /* clear remat flag */
968                                 set_ia32_flags(irn, get_ia32_flags(irn) & ~arch_irn_flags_rematerializable);
969                         }
970                 }
971                 /* check if the node is an address mode candidate */
972                 else if (is_candidate(block, irn, 0)) {
973                         DBG((mod, LEVEL_1, "\tfound address mode candidate %+F ... ", irn));
974
975                         left  = get_irn_n(irn, 2);
976                         if (get_irn_arity(irn) == 4) {
977                                 /* it's an "unary" operation */
978                                 right = left;
979                         }
980                         else {
981                                 right = get_irn_n(irn, 3);
982                         }
983
984                         /* normalize commutative ops */
985                         if (node_is_ia32_comm(irn)) {
986                                 /* Assure that right operand is always a Load if there is one    */
987                                 /* because non-commutative ops can only use Dest AM if the right */
988                                 /* operand is a load, so we only need to check right operand.    */
989                                 if (pred_is_specific_nodeblock(block, left, is_ia32_Ld))
990                                 {
991                                         set_irn_n(irn, 2, right);
992                                         set_irn_n(irn, 3, left);
993
994                                         temp  = left;
995                                         left  = right;
996                                         right = temp;
997                                 }
998                         }
999
1000                         /* check for Store -> op -> Load */
1001
1002                         /* Store -> op -> Load optimization is only possible if supported by op */
1003                         /* and if right operand is a Load                                       */
1004                         if ((get_ia32_am_support(irn) & ia32_am_Dest) &&
1005                                  pred_is_specific_nodeblock(block, right, is_ia32_Ld))
1006                         {
1007
1008                                 /* An address mode capable op always has a result Proj.                  */
1009                                 /* If this Proj is used by more than one other node, we don't need to    */
1010                                 /* check further, otherwise we check for Store and remember the address, */
1011                                 /* the Store points to. */
1012
1013                                 succ = get_res_proj(irn);
1014                                 assert(succ && "Couldn't find result proj");
1015
1016                                 addr_b = NULL;
1017                                 addr_i = NULL;
1018                                 store  = NULL;
1019
1020                                 /* now check for users and Store */
1021                                 if (ia32_get_irn_n_edges(succ) == 1) {
1022                                         succ = get_edge_src_irn(get_irn_out_edge_first(succ));
1023
1024                                         if (is_ia32_fStore(succ) || is_ia32_Store(succ)) {
1025                                                 store  = succ;
1026                                                 addr_b = get_irn_n(store, 0);
1027
1028                                                 /* Could be that the Store is connected to the address    */
1029                                                 /* calculating LEA while the Load is already transformed. */
1030                                                 if (is_ia32_Lea(addr_b)) {
1031                                                         succ   = addr_b;
1032                                                         addr_b = get_irn_n(succ, 0);
1033                                                         addr_i = get_irn_n(succ, 1);
1034                                                 }
1035                                                 else {
1036                                                         addr_i = noreg_gp;
1037                                                 }
1038                                         }
1039                                 }
1040
1041                                 if (store) {
1042                                         /* we found a Store as single user: Now check for Load */
1043
1044                                         /* Extra check for commutative ops with two Loads */
1045                                         /* -> put the interesting Load right              */
1046                                         if (node_is_ia32_comm(irn) &&
1047                                                 pred_is_specific_nodeblock(block, left, is_ia32_Ld))
1048                                         {
1049                                                 if ((addr_b == get_irn_n(get_Proj_pred(left), 0)) &&
1050                                                         (addr_i == get_irn_n(get_Proj_pred(left), 1)))
1051                                                 {
1052                                                         /* We exchange left and right, so it's easier to kill     */
1053                                                         /* the correct Load later and to handle unary operations. */
1054                                                         set_irn_n(irn, 2, right);
1055                                                         set_irn_n(irn, 3, left);
1056
1057                                                         temp  = left;
1058                                                         left  = right;
1059                                                         right = temp;
1060                                                 }
1061                                         }
1062
1063                                         /* skip the Proj for easier access */
1064                                         load = get_Proj_pred(right);
1065
1066                                         /* Compare Load and Store address */
1067                                         if (load_store_addr_is_equal(load, store, addr_b, addr_i)) {
1068                                                 /* Right Load is from same address, so we can */
1069                                                 /* disconnect the Load and Store here        */
1070
1071                                                 /* set new base, index and attributes */
1072                                                 set_irn_n(irn, 0, addr_b);
1073                                                 set_irn_n(irn, 1, addr_i);
1074                                                 add_ia32_am_offs(irn, get_ia32_am_offs(load));
1075                                                 set_ia32_am_scale(irn, get_ia32_am_scale(load));
1076                                                 set_ia32_am_flavour(irn, get_ia32_am_flavour(load));
1077                                                 set_ia32_op_type(irn, ia32_AddrModeD);
1078                                                 set_ia32_frame_ent(irn, get_ia32_frame_ent(load));
1079                                                 set_ia32_ls_mode(irn, get_ia32_ls_mode(load));
1080
1081                                                 set_ia32_am_sc(irn, get_ia32_am_sc(load));
1082                                                 if (is_ia32_am_sc_sign(load))
1083                                                         set_ia32_am_sc_sign(irn);
1084
1085                                                 if (is_ia32_use_frame(load))
1086                                                         set_ia32_use_frame(irn);
1087
1088                                                 /* connect to Load memory and disconnect Load */
1089                                                 if (get_irn_arity(irn) == 5) {
1090                                                         /* binary AMop */
1091                                                         set_irn_n(irn, 4, get_irn_n(load, 2));
1092                                                         set_irn_n(irn, 3, noreg_gp);
1093                                                 }
1094                                                 else {
1095                                                         /* unary AMop */
1096                                                         set_irn_n(irn, 3, get_irn_n(load, 2));
1097                                                         set_irn_n(irn, 2, noreg_gp);
1098                                                 }
1099
1100                                                 /* connect the memory Proj of the Store to the op */
1101                                                 mem_proj = get_mem_proj(store);
1102                                                 set_Proj_pred(mem_proj, irn);
1103                                                 set_Proj_proj(mem_proj, 1);
1104
1105                                                 /* clear remat flag */
1106                                                 set_ia32_flags(irn, get_ia32_flags(irn) & ~arch_irn_flags_rematerializable);
1107
1108                                                 DB((mod, LEVEL_1, "merged with %+F and %+F into dest AM\n", load, store));
1109                                         }
1110                                 } /* if (store) */
1111                                 else if (get_ia32_am_support(irn) & ia32_am_Source) {
1112                                         /* There was no store, check if we still can optimize for source address mode */
1113                                         check_am_src = 1;
1114                                 }
1115                         } /* if (support AM Dest) */
1116                         else if (get_ia32_am_support(irn) & ia32_am_Source) {
1117                                 /* op doesn't support am AM Dest -> check for AM Source */
1118                                 check_am_src = 1;
1119                         }
1120
1121                         /* normalize commutative ops */
1122                         if (node_is_ia32_comm(irn)) {
1123                                 /* Assure that left operand is always a Load if there is one */
1124                                 /* because non-commutative ops can only use Source AM if the */
1125                                 /* left operand is a Load, so we only need to check the left */
1126                                 /* operand afterwards.                                       */
1127                                 if (pred_is_specific_nodeblock(block, right, is_ia32_Ld))       {
1128                                         set_irn_n(irn, 2, right);
1129                                         set_irn_n(irn, 3, left);
1130
1131                                         temp  = left;
1132                                         left  = right;
1133                                         right = temp;
1134                                 }
1135                         }
1136
1137                         /* optimize op -> Load iff Load is only used by this op   */
1138                         /* and left operand is a Load which only used by this irn */
1139                         if (check_am_src                                        &&
1140                                 pred_is_specific_nodeblock(block, left, is_ia32_Ld) &&
1141                                 (ia32_get_irn_n_edges(left) == 1))
1142                         {
1143                                 left = get_Proj_pred(left);
1144
1145                                 addr_b = get_irn_n(left, 0);
1146                                 addr_i = get_irn_n(left, 1);
1147
1148                                 /* set new base, index and attributes */
1149                                 set_irn_n(irn, 0, addr_b);
1150                                 set_irn_n(irn, 1, addr_i);
1151                                 add_ia32_am_offs(irn, get_ia32_am_offs(left));
1152                                 set_ia32_am_scale(irn, get_ia32_am_scale(left));
1153                                 set_ia32_am_flavour(irn, get_ia32_am_flavour(left));
1154                                 set_ia32_op_type(irn, ia32_AddrModeS);
1155                                 set_ia32_frame_ent(irn, get_ia32_frame_ent(left));
1156                                 set_ia32_ls_mode(irn, get_ia32_ls_mode(left));
1157
1158                                 set_ia32_am_sc(irn, get_ia32_am_sc(left));
1159                                 if (is_ia32_am_sc_sign(left))
1160                                         set_ia32_am_sc_sign(irn);
1161
1162                                 /* clear remat flag */
1163                                 set_ia32_flags(irn, get_ia32_flags(irn) & ~arch_irn_flags_rematerializable);
1164
1165                                 if (is_ia32_use_frame(left))
1166                                         set_ia32_use_frame(irn);
1167
1168                                 /* connect to Load memory */
1169                                 if (get_irn_arity(irn) == 5) {
1170                                         /* binary AMop */
1171                                         set_irn_n(irn, 4, get_irn_n(left, 2));
1172                                 }
1173                                 else {
1174                                         /* unary AMop */
1175                                         set_irn_n(irn, 3, get_irn_n(left, 2));
1176                                 }
1177
1178                                 /* disconnect from Load */
1179                                 set_irn_n(irn, 2, noreg_gp);
1180
1181                                 /* If Load has a memory Proj, connect it to the op */
1182                                 mem_proj = get_mem_proj(left);
1183                                 if (mem_proj) {
1184                                         set_Proj_pred(mem_proj, irn);
1185                                         set_Proj_proj(mem_proj, 1);
1186                                 }
1187
1188                                 DB((mod, LEVEL_1, "merged with %+F into source AM\n", left));
1189                         }
1190                 }
1191         }
1192 }