place transformed StackParam nodes in the user Block
[libfirm] / ir / be / ia32 / ia32_optimize.c
1 #ifdef HAVE_CONFIG_H
2 #include "config.h"
3 #endif
4
5 #include "irnode.h"
6 #include "irprog_t.h"
7 #include "ircons.h"
8 #include "firm_types.h"
9 #include "iredges.h"
10 #include "tv.h"
11 #include "irgmod.h"
12
13 #include "../be_t.h"
14 #include "../beabi.h"
15 #include "../benode_t.h"
16 #include "../besched_t.h"
17
18 #include "ia32_new_nodes.h"
19 #include "bearch_ia32_t.h"
20 #include "gen_ia32_regalloc_if.h"     /* the generated interface (register type and class defenitions) */
21
22 #undef is_NoMem
23 #define is_NoMem(irn) (get_irn_op(irn) == op_NoMem)
24
25 typedef int is_op_func_t(const ir_node *n);
26
27 static int be_is_NoReg(be_abi_irg_t *babi, const ir_node *irn) {
28         if (be_abi_get_callee_save_irn(babi, &ia32_gp_regs[REG_XXX]) == irn ||
29                 be_abi_get_callee_save_irn(babi, &ia32_fp_regs[REG_XXXX]) == irn)
30         {
31                 return 1;
32         }
33
34         return 0;
35 }
36
37
38
39 /*************************************************
40  *   _____                _              _
41  *  / ____|              | |            | |
42  * | |     ___  _ __  ___| |_ __ _ _ __ | |_ ___
43  * | |    / _ \| '_ \/ __| __/ _` | '_ \| __/ __|
44  * | |___| (_) | | | \__ \ || (_| | | | | |_\__ \
45  *  \_____\___/|_| |_|___/\__\__,_|_| |_|\__|___/
46  *
47  *************************************************/
48
49 /**
50  * creates a unique ident by adding a number to a tag
51  *
52  * @param tag   the tag string, must contain a %d if a number
53  *              should be added
54  */
55 static ident *unique_id(const char *tag)
56 {
57         static unsigned id = 0;
58         char str[256];
59
60         snprintf(str, sizeof(str), tag, ++id);
61         return new_id_from_str(str);
62 }
63
64
65
66 /**
67  * Transforms a SymConst.
68  *
69  * @param mod     the debug module
70  * @param block   the block the new node should belong to
71  * @param node    the ir SymConst node
72  * @param mode    mode of the SymConst
73  * @return the created ia32 Const node
74  */
75 static ir_node *gen_SymConst(ia32_transform_env_t *env) {
76         ir_node  *cnst;
77         dbg_info *dbg   = env->dbg;
78         ir_mode  *mode  = env->mode;
79         ir_graph *irg   = env->irg;
80         ir_node  *block = env->block;
81
82         if (mode_is_float(mode)) {
83                 cnst = new_rd_ia32_fConst(dbg, irg, block, mode);
84         }
85         else {
86                 cnst = new_rd_ia32_Const(dbg, irg, block, mode);
87         }
88         set_ia32_Const_attr(cnst, env->irn);
89         return cnst;
90 }
91
92 /**
93  * Get a primitive type for a mode.
94  */
95 static ir_type *get_prim_type(pmap *types, ir_mode *mode)
96 {
97         pmap_entry *e = pmap_find(types, mode);
98         ir_type *res;
99
100         if (! e) {
101                 char buf[64];
102                 snprintf(buf, sizeof(buf), "prim_type_%s", get_mode_name(mode));
103                 res = new_type_primitive(new_id_from_str(buf), mode);
104                 pmap_insert(types, mode, res);
105         }
106         else
107                 res = e->value;
108         return res;
109 }
110
111 /**
112  * Get an entity that is initialized with a tarval
113  */
114 static entity *get_entity_for_tv(ia32_code_gen_t *cg, ir_node *cnst)
115 {
116         tarval *tv    = get_Const_tarval(cnst);
117         pmap_entry *e = pmap_find(cg->tv_ent, tv);
118         entity *res;
119         ir_graph *rem;
120
121         if (! e) {
122                 ir_mode *mode = get_irn_mode(cnst);
123                 ir_type *tp = get_Const_type(cnst);
124                 if (tp == firm_unknown_type)
125                         tp = get_prim_type(cg->types, mode);
126
127                 res = new_entity(get_glob_type(), unique_id("ia32FloatCnst_%u"), tp);
128
129                 set_entity_ld_ident(res, get_entity_ident(res));
130                 set_entity_visibility(res, visibility_local);
131                 set_entity_variability(res, variability_constant);
132                 set_entity_allocation(res, allocation_static);
133
134                  /* we create a new entity here: It's initialization must resist on the
135                     const code irg */
136                 rem = current_ir_graph;
137                 current_ir_graph = get_const_code_irg();
138                 set_atomic_ent_value(res, new_Const_type(tv, tp));
139                 current_ir_graph = rem;
140         }
141         else
142                 res = e->value;
143         return res;
144 }
145
146 /**
147  * Transforms a Const.
148  *
149  * @param mod     the debug module
150  * @param block   the block the new node should belong to
151  * @param node    the ir Const node
152  * @param mode    mode of the Const
153  * @return the created ia32 Const node
154  */
155 static ir_node *gen_Const(ia32_transform_env_t *env) {
156         ir_node *cnst;
157         symconst_symbol sym;
158         ir_graph *irg   = env->irg;
159         ir_node  *block = env->block;
160         ir_node  *node  = env->irn;
161         dbg_info *dbg   = env->dbg;
162         ir_mode  *mode  = env->mode;
163
164         if (mode_is_float(mode)) {
165                 sym.entity_p = get_entity_for_tv(env->cg, node);
166
167                 cnst = new_rd_SymConst(dbg, irg, block, sym, symconst_addr_ent);
168                 env->irn = cnst;
169                 cnst = gen_SymConst(env);
170         }
171         else {
172                 cnst = new_rd_ia32_Const(dbg, irg, block, get_irn_mode(node));
173                 set_ia32_Const_attr(cnst, node);
174         }
175         return cnst;
176 }
177
178
179
180 /**
181  * Transforms (all) Const's into ia32_Const and places them in the
182  * block where they are used (or in the cfg-pred Block in case of Phi's).
183  * Additionally all reference nodes are changed into mode_Is nodes.
184  */
185 void ia32_place_consts_set_modes(ir_node *irn, void *env) {
186         ia32_code_gen_t      *cg = env;
187         ia32_transform_env_t  tenv;
188         ir_mode              *mode;
189         ir_node              *pred, *cnst;
190         int                   i;
191         opcode                opc;
192
193         if (is_Block(irn))
194                 return;
195
196         mode = get_irn_mode(irn);
197
198         /* transform all reference nodes into mode_Is nodes */
199         if (mode_is_reference(mode)) {
200                 mode = mode_Is;
201                 set_irn_mode(irn, mode);
202         }
203
204         tenv.block    = get_nodes_block(irn);
205         tenv.cg       = cg;
206         tenv.irg      = cg->irg;
207         tenv.mod      = cg->mod;
208
209         /* Loop over all predecessors and check for Sym/Const nodes */
210         for (i = get_irn_arity(irn) - 1; i >= 0; --i) {
211                 pred      = get_irn_n(irn, i);
212                 cnst      = NULL;
213                 opc       = get_irn_opcode(pred);
214                 tenv.irn  = pred;
215                 tenv.mode = get_irn_mode(pred);
216                 tenv.dbg  = get_irn_dbg_info(pred);
217
218                 /* If it's a Phi, then we need to create the */
219                 /* new Const in it's predecessor block       */
220                 if (is_Phi(irn)) {
221                         tenv.block = get_Block_cfgpred_block(get_nodes_block(irn), i);
222                 }
223
224                 /* put the const into the block where the original const was */
225                 if (! cg->opt.placecnst) {
226                         tenv.block = get_nodes_block(pred);
227                 }
228
229                 switch (opc) {
230                         case iro_Const:
231                                 cnst = gen_Const(&tenv);
232                                 break;
233                         case iro_SymConst:
234                                 cnst = gen_SymConst(&tenv);
235                                 break;
236                         default:
237                                 break;
238                 }
239
240                 /* if we found a const, then set it */
241                 if (cnst) {
242                         set_irn_n(irn, i, cnst);
243                 }
244         }
245 }
246
247
248
249 /********************************************************************************************************
250  *  _____                _           _         ____        _   _           _          _   _
251  * |  __ \              | |         | |       / __ \      | | (_)         (_)        | | (_)
252  * | |__) |__  ___ _ __ | |__   ___ | | ___  | |  | |_ __ | |_ _ _ __ ___  _ ______ _| |_ _  ___  _ __
253  * |  ___/ _ \/ _ \ '_ \| '_ \ / _ \| |/ _ \ | |  | | '_ \| __| | '_ ` _ \| |_  / _` | __| |/ _ \| '_ \
254  * | |  |  __/  __/ |_) | | | | (_) | |  __/ | |__| | |_) | |_| | | | | | | |/ / (_| | |_| | (_) | | | |
255  * |_|   \___|\___| .__/|_| |_|\___/|_|\___|  \____/| .__/ \__|_|_| |_| |_|_/___\__,_|\__|_|\___/|_| |_|
256  *                | |                               | |
257  *                |_|                               |_|
258  ********************************************************************************************************/
259
260 /**
261  * NOTE: THESE PEEPHOLE OPTIMIZATIONS MUST BE CALLED AFTER SCHEDULING AND REGISTER ALLOCATION.
262  */
263
264 static int ia32_cnst_compare(ir_node *n1, ir_node *n2) {
265         return get_ia32_id_cnst(n1) == get_ia32_id_cnst(n2);
266 }
267
268 /**
269  * Checks for potential CJmp/CJmpAM optimization candidates.
270  */
271 static ir_node *ia32_determine_cjmp_cand(ir_node *irn, is_op_func_t *is_op_func) {
272         ir_node *cand = NULL;
273         ir_node *prev = sched_prev(irn);
274
275         if (is_Block(prev)) {
276                 if (get_Block_n_cfgpreds(prev) == 1)
277                         prev = get_Block_cfgpred(prev, 0);
278                 else
279                         prev = NULL;
280         }
281
282         /* The predecessor must be a ProjX. */
283         if (prev && is_Proj(prev) && get_irn_mode(prev) == mode_X) {
284                 prev = get_Proj_pred(prev);
285
286                 if (is_op_func(prev))
287                         cand = prev;
288         }
289
290         return cand;
291 }
292
293 static int is_TestJmp_cand(const ir_node *irn) {
294         return is_ia32_TestJmp(irn) || is_ia32_And(irn);
295 }
296
297 /**
298  * Checks if two consecutive arguments of cand matches
299  * the two arguments of irn (TestJmp).
300  */
301 static int is_TestJmp_replacement(ir_node *cand, ir_node *irn) {
302         ir_node *in1       = get_irn_n(irn, 0);
303         ir_node *in2       = get_irn_n(irn, 1);
304         int      i, n      = get_irn_arity(cand);
305         int      same_args = 0;
306
307         for (i = 0; i < n - 1; i++) {
308                 if (get_irn_n(cand, i)     == in1 &&
309                         get_irn_n(cand, i + 1) == in2)
310                 {
311                         same_args = 1;
312                         break;
313                 }
314         }
315
316         if (same_args)
317                 return ia32_cnst_compare(cand, irn);
318
319         return 0;
320 }
321
322 /**
323  * Tries to replace a TestJmp by a CJmp or CJmpAM (in case of And)
324  */
325 static void ia32_optimize_TestJmp(ir_node *irn, ia32_code_gen_t *cg) {
326         ir_node *cand    = ia32_determine_cjmp_cand(irn, is_TestJmp_cand);
327         int      replace = 0;
328
329         /* we found a possible candidate */
330         replace = cand ? is_TestJmp_replacement(cand, irn) : 0;
331
332         if (replace) {
333                 DBG((cg->mod, LEVEL_1, "replacing %+F by ", irn));
334
335                 if (is_ia32_And(cand))
336                         set_irn_op(irn, op_ia32_CJmpAM);
337                 else
338                         set_irn_op(irn, op_ia32_CJmp);
339
340                 DB((cg->mod, LEVEL_1, "%+F\n", irn));
341         }
342 }
343
344 static int is_CondJmp_cand(const ir_node *irn) {
345         return is_ia32_CondJmp(irn) || is_ia32_Sub(irn);
346 }
347
348 /**
349  * Checks if the arguments of cand are the same of irn.
350  */
351 static int is_CondJmp_replacement(ir_node *cand, ir_node *irn) {
352         int i, n      = get_irn_arity(cand);
353         int same_args = 0;
354
355         for (i = 0; i < n; i++) {
356                 if (get_irn_n(cand, i) == get_irn_n(irn, i)) {
357                         same_args = 1;
358                         break;
359                 }
360         }
361
362         if (same_args)
363                 return ia32_cnst_compare(cand, irn);
364
365         return 0;
366 }
367
368 /**
369  * Tries to replace a CondJmp by a CJmpAM
370  */
371 static void ia32_optimize_CondJmp(ir_node *irn, ia32_code_gen_t *cg) {
372         ir_node *cand    = ia32_determine_cjmp_cand(irn, is_CondJmp_cand);
373         int      replace = 0;
374
375         /* we found a possible candidate */
376         replace = cand ? is_CondJmp_replacement(cand, irn) : 0;
377
378         if (replace) {
379                 DBG((cg->mod, LEVEL_1, "replacing %+F by ", irn));
380
381                 set_irn_op(irn, op_ia32_CJmp);
382
383                 DB((cg->mod, LEVEL_1, "%+F\n", irn));
384         }
385 }
386
387 /**
388  * Performs Peephole Optimizations
389  */
390 void ia32_peephole_optimization(ir_node *irn, void *env) {
391         if (is_ia32_TestJmp(irn)) {
392                 ia32_optimize_TestJmp(irn, env);
393         }
394         else if (is_ia32_CondJmp(irn)) {
395                 ia32_optimize_CondJmp(irn, env);
396         }
397 }
398
399
400
401 /******************************************************************
402  *              _     _                   __  __           _
403  *     /\      | |   | |                 |  \/  |         | |
404  *    /  \   __| | __| |_ __ ___  ___ ___| \  / | ___   __| | ___
405  *   / /\ \ / _` |/ _` | '__/ _ \/ __/ __| |\/| |/ _ \ / _` |/ _ \
406  *  / ____ \ (_| | (_| | | |  __/\__ \__ \ |  | | (_) | (_| |  __/
407  * /_/    \_\__,_|\__,_|_|  \___||___/___/_|  |_|\___/ \__,_|\___|
408  *
409  ******************************************************************/
410
411 static int node_is_comm(const ir_node *irn) {
412         return is_ia32_irn(irn) ? is_ia32_commutative(irn) : 0;
413 }
414
415 static int ia32_get_irn_n_edges(const ir_node *irn) {
416         const ir_edge_t *edge;
417         int cnt = 0;
418
419         foreach_out_edge(irn, edge) {
420                 cnt++;
421         }
422
423         return cnt;
424 }
425
426 /**
427  * Returns the first mode_M Proj connected to irn.
428  */
429 static ir_node *get_mem_proj(const ir_node *irn) {
430         const ir_edge_t *edge;
431         ir_node         *src;
432
433         assert(get_irn_mode(irn) == mode_T && "expected mode_T node");
434
435         foreach_out_edge(irn, edge) {
436                 src = get_edge_src_irn(edge);
437
438                 assert(is_Proj(src) && "Proj expected");
439
440                 if (get_irn_mode(src) == mode_M)
441                         return src;
442         }
443
444         return NULL;
445 }
446
447 /**
448  * Returns the first Proj with mode != mode_M connected to irn.
449  */
450 static ir_node *get_res_proj(const ir_node *irn) {
451         const ir_edge_t *edge;
452         ir_node         *src;
453
454         assert(get_irn_mode(irn) == mode_T && "expected mode_T node");
455
456         foreach_out_edge(irn, edge) {
457                 src = get_edge_src_irn(edge);
458
459                 assert(is_Proj(src) && "Proj expected");
460
461                 if (get_irn_mode(src) != mode_M)
462                         return src;
463         }
464
465         return NULL;
466 }
467
468 /**
469  * Determines if pred is a Proj and if is_op_func returns true for it's predecessor.
470  *
471  * @param pred       The node to be checked
472  * @param is_op_func The check-function
473  * @return 1 if conditions are fulfilled, 0 otherwise
474  */
475 static int pred_is_specific_node(const ir_node *pred, is_op_func_t *is_op_func) {
476         if (is_Proj(pred) && is_op_func(get_Proj_pred(pred))) {
477                 return 1;
478         }
479
480         return 0;
481 }
482
483 /**
484  * Determines if pred is a Proj and if is_op_func returns true for it's predecessor
485  * and if the predecessor is in block bl.
486  *
487  * @param bl         The block
488  * @param pred       The node to be checked
489  * @param is_op_func The check-function
490  * @return 1 if conditions are fulfilled, 0 otherwise
491  */
492 static int pred_is_specific_nodeblock(const ir_node *bl, const ir_node *pred,
493         int (*is_op_func)(const ir_node *n))
494 {
495         if (is_Proj(pred)) {
496                 pred = get_Proj_pred(pred);
497                 if ((bl == get_nodes_block(pred)) && is_op_func(pred)) {
498                         return 1;
499                 }
500         }
501
502         return 0;
503 }
504
505
506
507 /**
508  * Checks if irn is a candidate for address calculation or address mode.
509  *
510  * address calculation (AC):
511  * - none of the operand must be a Load  within the same block OR
512  * - all Loads must have more than one user                    OR
513  * - the irn has a frame entity (it's a former FrameAddr)
514  *
515  * address mode (AM):
516  * - at least one operand has to be a Load within the same block AND
517  * - the load must not have other users than the irn             AND
518  * - the irn must not have a frame entity set
519  *
520  * @param block       The block the Loads must/not be in
521  * @param irn         The irn to check
522  * @param check_addr  1 if to check for address calculation, 0 otherwise
523  * return 1 if irn is a candidate for AC or AM, 0 otherwise
524  */
525 static int is_candidate(const ir_node *block, const ir_node *irn, int check_addr) {
526         ir_node *in;
527         int      n, is_cand = check_addr;
528
529         in = get_irn_n(irn, 2);
530
531         if (pred_is_specific_nodeblock(block, in, is_ia32_Ld)) {
532                 n         = ia32_get_irn_n_edges(in);
533                 is_cand   = check_addr ? (n == 1 ? 0 : is_cand) : (n == 1 ? 1 : is_cand);
534         }
535
536         in = get_irn_n(irn, 3);
537
538         if (pred_is_specific_nodeblock(block, in, is_ia32_Ld)) {
539                 n         = ia32_get_irn_n_edges(in);
540                 is_cand   = check_addr ? (n == 1 ? 0 : is_cand) : (n == 1 ? 1 : is_cand);
541         }
542
543         is_cand = get_ia32_frame_ent(irn) ? (check_addr ? 1 : 0) : is_cand;
544
545         return is_cand;
546 }
547
548 /**
549  * Compares the base and index addr and the load/store entities
550  * and returns 1 if they are equal.
551  */
552 static int load_store_addr_is_equal(const ir_node *load, const ir_node *store,
553                                                                         const ir_node *addr_b, const ir_node *addr_i)
554 {
555         int     is_equal = (addr_b == get_irn_n(load, 0)) && (addr_i == get_irn_n(load, 1));
556         entity *lent     = get_ia32_frame_ent(load);
557         entity *sent     = get_ia32_frame_ent(store);
558         char   *loffs    = get_ia32_am_offs(load);
559         char   *soffs    = get_ia32_am_offs(store);
560
561         /* are both entities set and equal? */
562         if (lent || sent)
563                 is_equal = lent && sent && (lent == sent);
564
565         /* are the load and the store of the same mode? */
566         is_equal = get_ia32_ls_mode(load) == get_ia32_ls_mode(store);
567
568         /* are offsets set and equal */
569         if (loffs || soffs)
570                 is_equal = loffs && soffs && strcmp(loffs, soffs) == 0;
571
572         return is_equal;
573 }
574
575
576
577 /**
578  * Folds Add or Sub to LEA if possible
579  */
580 static ir_node *fold_addr(be_abi_irg_t *babi, ir_node *irn, firm_dbg_module_t *mod, ir_node *noreg) {
581         ir_graph *irg       = get_irn_irg(irn);
582         dbg_info *dbg       = get_irn_dbg_info(irn);
583         ir_node  *block     = get_nodes_block(irn);
584         ir_node  *res       = irn;
585         char     *offs      = NULL;
586         const char *offs_cnst = NULL;
587         char     *offs_lea  = NULL;
588         int       scale     = 0;
589         int       isadd     = 0;
590         int       dolea     = 0;
591         ir_node  *left, *right, *temp;
592         ir_node  *base, *index;
593         ia32_am_flavour_t am_flav;
594
595         if (is_ia32_Add(irn))
596                 isadd = 1;
597
598         left  = get_irn_n(irn, 2);
599         right = get_irn_n(irn, 3);
600
601         /* "normalize" arguments in case of add with two operands */
602         if  (isadd && ! be_is_NoReg(babi, right)) {
603                 /* put LEA == ia32_am_O as right operand */
604                 if (is_ia32_Lea(left) && get_ia32_am_flavour(left) == ia32_am_O) {
605                         set_irn_n(irn, 2, right);
606                         set_irn_n(irn, 3, left);
607                         temp  = left;
608                         left  = right;
609                         right = temp;
610                 }
611
612                 /* put LEA != ia32_am_O as left operand */
613                 if (is_ia32_Lea(right) && get_ia32_am_flavour(right) != ia32_am_O) {
614                         set_irn_n(irn, 2, right);
615                         set_irn_n(irn, 3, left);
616                         temp  = left;
617                         left  = right;
618                         right = temp;
619                 }
620
621                 /* put SHL as left operand iff left is NOT a LEA */
622                 if (! is_ia32_Lea(left) && pred_is_specific_node(right, is_ia32_Shl)) {
623                         set_irn_n(irn, 2, right);
624                         set_irn_n(irn, 3, left);
625                         temp  = left;
626                         left  = right;
627                         right = temp;
628                 }
629         }
630
631         base    = left;
632         index   = noreg;
633         offs    = NULL;
634         scale   = 0;
635         am_flav = 0;
636
637         /* check if operand is either const */
638         if (is_ia32_ImmConst(irn) || is_ia32_ImmSymConst(irn)) {
639                 DBG((mod, LEVEL_1, "\tfound op with imm"));
640
641                 offs_cnst = get_ia32_cnst(irn);
642                 dolea     = 1;
643         }
644
645         /* determine the operand which needs to be checked */
646         if (be_is_NoReg(babi, right)) {
647                 temp = left;
648         }
649         else {
650                 temp = right;
651         }
652
653         /* check if right operand is AMConst (LEA with ia32_am_O) */
654         if (is_ia32_Lea(temp) && get_ia32_am_flavour(temp) == ia32_am_O) {
655                 DBG((mod, LEVEL_1, "\tgot op with LEA am_O"));
656
657                 offs_lea = get_ia32_am_offs(temp);
658                 dolea    = 1;
659         }
660
661         if (isadd) {
662                 /* default for add -> make right operand to index */
663                 index = right;
664                 dolea = 1;
665
666                 DBG((mod, LEVEL_1, "\tgot LEA candidate with index %+F\n", index));
667
668                 /* determine the operand which needs to be checked */
669                 temp = left;
670                 if (is_ia32_Lea(left)) {
671                         temp = right;
672                 }
673
674                 /* check for SHL 1,2,3 */
675                 if (pred_is_specific_node(temp, is_ia32_Shl)) {
676                         temp = get_Proj_pred(temp);
677
678                         if (get_ia32_Immop_tarval(temp)) {
679                                 scale = get_tarval_long(get_ia32_Immop_tarval(temp));
680
681                                 if (scale <= 3) {
682                                         index = get_irn_n(temp, 2);
683
684                                         DBG((mod, LEVEL_1, "\tgot scaled index %+F\n", index));
685                                 }
686                         }
687                 }
688
689                 /* fix base */
690                 if (! be_is_NoReg(babi, index)) {
691                         /* if we have index, but left == right -> no base */
692                         if (left == right) {
693                                 base = noreg;
694                         }
695                         else if (! is_ia32_Lea(left) && (index != right)) {
696                                 /* index != right -> we found a good Shl           */
697                                 /* left  != LEA   -> this Shl was the left operand */
698                                 /* -> base is right operand                        */
699                                 base = right;
700                         }
701                 }
702         }
703
704         /* Try to assimilate a LEA as left operand */
705         if (is_ia32_Lea(left) && (get_ia32_am_flavour(left) != ia32_am_O)) {
706                 am_flav = get_ia32_am_flavour(left);
707
708                 /* If we have an Add with a real right operand (not NoReg) and  */
709                 /* the LEA contains already an index calculation then we create */
710                 /* a new LEA.                                                   */
711                 /* If the LEA contains already a frame_entity then we also      */
712                 /* create a new one  otherwise we would loose it.               */
713                 if ((isadd && !be_is_NoReg(babi, index) && (am_flav & ia32_am_I)) ||
714                         get_ia32_frame_ent(left))
715                 {
716                         DBG((mod, LEVEL_1, "\tleave old LEA, creating new one\n"));
717                 }
718                 else {
719                         DBG((mod, LEVEL_1, "\tgot LEA as left operand ... assimilating\n"));
720                         offs  = get_ia32_am_offs(left);
721                         base  = get_irn_n(left, 0);
722                         index = get_irn_n(left, 1);
723                         scale = get_ia32_am_scale(left);
724                 }
725         }
726
727         /* ok, we can create a new LEA */
728         if (dolea) {
729                 res = new_rd_ia32_Lea(dbg, irg, block, base, index, mode_Is);
730
731                 /* add the old offset of a previous LEA */
732                 if (offs) {
733                         add_ia32_am_offs(res, offs);
734                 }
735
736                 /* add the new offset */
737                 if (isadd) {
738                         if (offs_cnst) {
739                                 add_ia32_am_offs(res, offs_cnst);
740                         }
741                         if (offs_lea) {
742                                 add_ia32_am_offs(res, offs_lea);
743                         }
744                 }
745                 else {
746                         /* either lea_O-cnst, -cnst or -lea_O  */
747                         if (offs_cnst) {
748                                 if (offs_lea) {
749                                         add_ia32_am_offs(res, offs_lea);
750                                 }
751
752                                 sub_ia32_am_offs(res, offs_cnst);
753                         }
754                         else {
755                                 sub_ia32_am_offs(res, offs_lea);
756                         }
757                 }
758
759                 /* copy the frame entity (could be set in case of Add */
760                 /* which was a FrameAddr) */
761                 set_ia32_frame_ent(res, get_ia32_frame_ent(irn));
762
763                 if (is_ia32_use_frame(irn))
764                         set_ia32_use_frame(res);
765
766                 /* set scale */
767                 set_ia32_am_scale(res, scale);
768
769                 am_flav = ia32_am_N;
770                 /* determine new am flavour */
771                 if (offs || offs_cnst || offs_lea) {
772                         am_flav |= ia32_O;
773                 }
774                 if (! be_is_NoReg(babi, base)) {
775                         am_flav |= ia32_B;
776                 }
777                 if (! be_is_NoReg(babi, index)) {
778                         am_flav |= ia32_I;
779                 }
780                 if (scale > 0) {
781                         am_flav |= ia32_S;
782                 }
783                 set_ia32_am_flavour(res, am_flav);
784
785                 set_ia32_op_type(res, ia32_AddrModeS);
786
787                 DBG((mod, LEVEL_1, "\tLEA [%+F + %+F * %d + %s]\n", base, index, scale, get_ia32_am_offs(res)));
788
789                 /* get the result Proj of the Add/Sub */
790                 irn = get_res_proj(irn);
791
792                 assert(irn && "Couldn't find result proj");
793
794                 /* exchange the old op with the new LEA */
795                 exchange(irn, res);
796         }
797
798         return res;
799 }
800
801 /**
802  * Optimizes a pattern around irn to address mode if possible.
803  */
804 void ia32_optimize_am(ir_node *irn, void *env) {
805         ia32_code_gen_t   *cg   = env;
806         firm_dbg_module_t *mod  = cg->mod;
807         ir_node           *res  = irn;
808         be_abi_irg_t      *babi = cg->birg->abi;
809         dbg_info          *dbg;
810         ir_mode           *mode;
811         ir_node           *block, *noreg_gp, *noreg_fp;
812         ir_node           *left, *right, *temp;
813         ir_node           *store, *load, *mem_proj;
814         ir_node           *succ, *addr_b, *addr_i;
815         int                check_am_src = 0;
816
817         if (! is_ia32_irn(irn))
818                 return;
819
820         dbg      = get_irn_dbg_info(irn);
821         mode     = get_irn_mode(irn);
822         block    = get_nodes_block(irn);
823         noreg_gp = ia32_new_NoReg_gp(cg);
824         noreg_fp = ia32_new_NoReg_fp(cg);
825
826         DBG((mod, LEVEL_1, "checking for AM\n"));
827
828         /* 1st part: check for address calculations and transform the into Lea */
829
830         /* Following cases can occur:                                  */
831         /* - Sub (l, imm) -> LEA [base - offset]                       */
832         /* - Sub (l, r == LEA with ia32_am_O)   -> LEA [base - offset] */
833         /* - Add (l, imm) -> LEA [base + offset]                       */
834         /* - Add (l, r == LEA with ia32_am_O)  -> LEA [base + offset]  */
835         /* - Add (l == LEA with ia32_am_O, r)  -> LEA [base + offset]  */
836         /* - Add (l, r) -> LEA [base + index * scale]                  */
837         /*              with scale > 1 iff l/r == shl (1,2,3)          */
838
839         if (is_ia32_Sub(irn) || is_ia32_Add(irn)) {
840                 left  = get_irn_n(irn, 2);
841                 right = get_irn_n(irn, 3);
842
843             /* Do not try to create a LEA if one of the operands is a Load. */
844                 /* check is irn is a candidate for address calculation */
845                 if (is_candidate(block, irn, 1)) {
846                         DBG((mod, LEVEL_1, "\tfound address calculation candidate %+F ... ", irn));
847                         res = fold_addr(babi, irn, mod, noreg_gp);
848
849                         if (res == irn)
850                                 DB((mod, LEVEL_1, "transformed into %+F\n", res));
851                         else
852                                 DB((mod, LEVEL_1, "not transformed\n"));
853                 }
854         }
855
856         /* 2nd part: fold following patterns:                                               */
857         /* - Load  -> LEA into Load  } TODO: If the LEA is used by more than one Load/Store */
858         /* - Store -> LEA into Store }       it might be better to keep the LEA             */
859         /* - op -> Load into AMop with am_Source                                            */
860         /*   conditions:                                                                    */
861         /*     - op is am_Source capable AND                                                */
862         /*     - the Load is only used by this op AND                                       */
863         /*     - the Load is in the same block                                              */
864         /* - Store -> op -> Load  into AMop with am_Dest                                    */
865         /*   conditions:                                                                    */
866         /*     - op is am_Dest capable AND                                                  */
867         /*     - the Store uses the same address as the Load AND                            */
868         /*     - the Load is only used by this op AND                                       */
869         /*     - the Load and Store are in the same block AND                               */
870         /*     - nobody else uses the result of the op                                      */
871
872         if ((res == irn) && (get_ia32_am_support(irn) != ia32_am_None) && !is_ia32_Lea(irn)) {
873                 /* 1st: check for Load/Store -> LEA   */
874                 if (is_ia32_Ld(irn) || is_ia32_St(irn) || is_ia32_Store8Bit(irn)) {
875                         left = get_irn_n(irn, 0);
876
877                         if (is_ia32_Lea(left)) {
878                                 DBG((mod, LEVEL_1, "\nmerging %+F into %+F\n", left, irn));
879
880                                 /* get the AM attributes from the LEA */
881                                 add_ia32_am_offs(irn, get_ia32_am_offs(left));
882                                 set_ia32_am_scale(irn, get_ia32_am_scale(left));
883                                 set_ia32_am_flavour(irn, get_ia32_am_flavour(left));
884
885                                 set_ia32_op_type(irn, is_ia32_Ld(irn) ? ia32_AddrModeS : ia32_AddrModeD);
886
887                                 /* set base and index */
888                                 set_irn_n(irn, 0, get_irn_n(left, 0));
889                                 set_irn_n(irn, 1, get_irn_n(left, 1));
890
891                                 /* clear remat flag */
892                                 set_ia32_flags(irn, get_ia32_flags(irn) & ~arch_irn_flags_rematerializable);
893                         }
894                 }
895                 /* check if the node is an address mode candidate */
896                 else if (is_candidate(block, irn, 0)) {
897                         DBG((mod, LEVEL_1, "\tfound address mode candidate %+F ... ", irn));
898
899                         left  = get_irn_n(irn, 2);
900                         if (get_irn_arity(irn) == 4) {
901                                 /* it's an "unary" operation */
902                                 right = left;
903                         }
904                         else {
905                                 right = get_irn_n(irn, 3);
906                         }
907
908                         /* normalize commutative ops */
909                         if (node_is_comm(irn)) {
910                                 /* Assure that right operand is always a Load if there is one    */
911                                 /* because non-commutative ops can only use Dest AM if the right */
912                                 /* operand is a load, so we only need to check right operand.    */
913                                 if (pred_is_specific_nodeblock(block, left, is_ia32_Ld))
914                                 {
915                                         set_irn_n(irn, 2, right);
916                                         set_irn_n(irn, 3, left);
917
918                                         temp  = left;
919                                         left  = right;
920                                         right = temp;
921                                 }
922                         }
923
924                         /* check for Store -> op -> Load */
925
926                         /* Store -> op -> Load optimization is only possible if supported by op */
927                         /* and if right operand is a Load                                       */
928                         if ((get_ia32_am_support(irn) & ia32_am_Dest) &&
929                                  pred_is_specific_nodeblock(block, right, is_ia32_Ld))
930                         {
931
932                                 /* An address mode capable op always has a result Proj.                  */
933                                 /* If this Proj is used by more than one other node, we don't need to    */
934                                 /* check further, otherwise we check for Store and remember the address, */
935                                 /* the Store points to. */
936
937                                 succ = get_res_proj(irn);
938                                 assert(succ && "Couldn't find result proj");
939
940                                 addr_b = NULL;
941                                 addr_i = NULL;
942                                 store  = NULL;
943
944                                 /* now check for users and Store */
945                                 if (ia32_get_irn_n_edges(succ) == 1) {
946                                         succ = get_edge_src_irn(get_irn_out_edge_first(succ));
947
948                                         if (is_ia32_fStore(succ) || is_ia32_Store(succ)) {
949                                                 store  = succ;
950                                                 addr_b = get_irn_n(store, 0);
951
952                                                 /* Could be that the Store is connected to the address    */
953                                                 /* calculating LEA while the Load is already transformed. */
954                                                 if (is_ia32_Lea(addr_b)) {
955                                                         succ   = addr_b;
956                                                         addr_b = get_irn_n(succ, 0);
957                                                         addr_i = get_irn_n(succ, 1);
958                                                 }
959                                                 else {
960                                                         addr_i = noreg_gp;
961                                                 }
962                                         }
963                                 }
964
965                                 if (store) {
966                                         /* we found a Store as single user: Now check for Load */
967
968                                         /* Extra check for commutative ops with two Loads */
969                                         /* -> put the interesting Load right              */
970                                         if (node_is_comm(irn) &&
971                                                 pred_is_specific_nodeblock(block, left, is_ia32_Ld))
972                                         {
973                                                 if ((addr_b == get_irn_n(get_Proj_pred(left), 0)) &&
974                                                         (addr_i == get_irn_n(get_Proj_pred(left), 1)))
975                                                 {
976                                                         /* We exchange left and right, so it's easier to kill     */
977                                                         /* the correct Load later and to handle unary operations. */
978                                                         set_irn_n(irn, 2, right);
979                                                         set_irn_n(irn, 3, left);
980
981                                                         temp  = left;
982                                                         left  = right;
983                                                         right = temp;
984                                                 }
985                                         }
986
987                                         /* skip the Proj for easier access */
988                                         load = get_Proj_pred(right);
989
990                                         /* Compare Load and Store address */
991                                         if (load_store_addr_is_equal(load, store, addr_b, addr_i)) {
992                                                 /* Right Load is from same address, so we can */
993                                                 /* disconnect the Load and Store here        */
994
995                                                 /* set new base, index and attributes */
996                                                 set_irn_n(irn, 0, addr_b);
997                                                 set_irn_n(irn, 1, addr_i);
998                                                 add_ia32_am_offs(irn, get_ia32_am_offs(load));
999                                                 set_ia32_am_scale(irn, get_ia32_am_scale(load));
1000                                                 set_ia32_am_flavour(irn, get_ia32_am_flavour(load));
1001                                                 set_ia32_op_type(irn, ia32_AddrModeD);
1002                                                 set_ia32_frame_ent(irn, get_ia32_frame_ent(load));
1003                                                 set_ia32_ls_mode(irn, get_ia32_ls_mode(load));
1004
1005                                                 if (is_ia32_use_frame(load))
1006                                                         set_ia32_use_frame(irn);
1007
1008                                                 /* connect to Load memory and disconnect Load */
1009                                                 if (get_irn_arity(irn) == 5) {
1010                                                         /* binary AMop */
1011                                                         set_irn_n(irn, 4, get_irn_n(load, 2));
1012                                                         set_irn_n(irn, 3, noreg_gp);
1013                                                 }
1014                                                 else {
1015                                                         /* unary AMop */
1016                                                         set_irn_n(irn, 3, get_irn_n(load, 2));
1017                                                         set_irn_n(irn, 2, noreg_gp);
1018                                                 }
1019
1020                                                 /* connect the memory Proj of the Store to the op */
1021                                                 mem_proj = get_mem_proj(store);
1022                                                 set_Proj_pred(mem_proj, irn);
1023                                                 set_Proj_proj(mem_proj, 1);
1024
1025                                                 /* clear remat flag */
1026                                                 set_ia32_flags(irn, get_ia32_flags(irn) & ~arch_irn_flags_rematerializable);
1027
1028                                                 DB((mod, LEVEL_1, "merged with %+F and %+F into dest AM\n", load, store));
1029                                         }
1030                                 } /* if (store) */
1031                                 else if (get_ia32_am_support(irn) & ia32_am_Source) {
1032                                         /* There was no store, check if we still can optimize for source address mode */
1033                                         check_am_src = 1;
1034                                 }
1035                         } /* if (support AM Dest) */
1036                         else if (get_ia32_am_support(irn) & ia32_am_Source) {
1037                                 /* op doesn't support am AM Dest -> check for AM Source */
1038                                 check_am_src = 1;
1039                         }
1040
1041                         /* normalize commutative ops */
1042                         if (node_is_comm(irn)) {
1043                                 /* Assure that left operand is always a Load if there is one */
1044                                 /* because non-commutative ops can only use Source AM if the */
1045                                 /* left operand is a Load, so we only need to check the left */
1046                                 /* operand afterwards.                                       */
1047                                 if (pred_is_specific_nodeblock(block, right, is_ia32_Ld))       {
1048                                         set_irn_n(irn, 2, right);
1049                                         set_irn_n(irn, 3, left);
1050
1051                                         temp  = left;
1052                                         left  = right;
1053                                         right = temp;
1054                                 }
1055                         }
1056
1057                         /* optimize op -> Load iff Load is only used by this op   */
1058                         /* and left operand is a Load which only used by this irn */
1059                         if (check_am_src                                        &&
1060                                 pred_is_specific_nodeblock(block, left, is_ia32_Ld) &&
1061                                 (ia32_get_irn_n_edges(left) == 1))
1062                         {
1063                                 left = get_Proj_pred(left);
1064
1065                                 addr_b = get_irn_n(left, 0);
1066                                 addr_i = get_irn_n(left, 1);
1067
1068                                 /* set new base, index and attributes */
1069                                 set_irn_n(irn, 0, addr_b);
1070                                 set_irn_n(irn, 1, addr_i);
1071                                 add_ia32_am_offs(irn, get_ia32_am_offs(left));
1072                                 set_ia32_am_scale(irn, get_ia32_am_scale(left));
1073                                 set_ia32_am_flavour(irn, get_ia32_am_flavour(left));
1074                                 set_ia32_op_type(irn, ia32_AddrModeS);
1075                                 set_ia32_frame_ent(irn, get_ia32_frame_ent(left));
1076                                 set_ia32_ls_mode(irn, get_ia32_ls_mode(left));
1077
1078                                 /* clear remat flag */
1079                                 set_ia32_flags(irn, get_ia32_flags(irn) & ~arch_irn_flags_rematerializable);
1080
1081                                 if (is_ia32_use_frame(left))
1082                                         set_ia32_use_frame(irn);
1083
1084                                 /* connect to Load memory */
1085                                 if (get_irn_arity(irn) == 5) {
1086                                         /* binary AMop */
1087                                         set_irn_n(irn, 4, get_irn_n(left, 2));
1088                                 }
1089                                 else {
1090                                         /* unary AMop */
1091                                         set_irn_n(irn, 3, get_irn_n(left, 2));
1092                                 }
1093
1094                                 /* disconnect from Load */
1095                                 set_irn_n(irn, 2, noreg_gp);
1096
1097                                 /* If Load has a memory Proj, connect it to the op */
1098                                 mem_proj = get_mem_proj(left);
1099                                 if (mem_proj) {
1100                                         set_Proj_pred(mem_proj, irn);
1101                                         set_Proj_proj(mem_proj, 1);
1102                                 }
1103
1104                                 DB((mod, LEVEL_1, "merged with %+F into source AM\n", left));
1105                         }
1106                 }
1107         }
1108 }