Restructure and improve
[libfirm] / ir / opt / scalar_replace.c
1 /*
2  * Project:     libFIRM
3  * File name:   ir/opt/scalar_replace.c
4  * Purpose:     scalar replacement of arrays and compounds
5  * Author:      Beyhan Veliev
6  * Modified by: Michael Beck
7  * Created:
8  * CVS-ID:      $Id$
9  * Copyright:   (c) 1998-2005 Universität Karlsruhe
10  * Licence:     This file protected by GPL -  GNU GENERAL PUBLIC LICENSE.
11  */
12 #ifdef HAVE_CONFIG_H
13 #include "config.h"
14 #endif
15
16 #ifdef HAVE_ALLOCA_H
17 #include <alloca.h>
18 #endif
19
20 #ifdef HAVE_MALLOC_H
21 #include <malloc.h>
22 #endif
23
24 #ifdef HAVE_STRING_H
25 #include <string.h>
26 #endif
27
28 #include "scalar_replace.h"
29 #include "irflag_t.h"
30 #include "irouts.h"
31 #include "set.h"
32 #include "pset.h"
33 #include "array.h"
34 #include "tv.h"
35 #include "ircons_t.h"
36 #include "hashptr.h"
37 #include "irgwalk.h"
38 #include "irgmod.h"
39 #include "irnode_t.h"
40 #include "irtools.h"
41
42 #define SET_VNUM(node, vnum) set_irn_link(node, INT_TO_PTR(vnum))
43 #define GET_VNUM(node)       (unsigned)PTR_TO_INT(get_irn_link(node))
44
45 /**
46  * A path element entry: it is either an entity
47  * or a tarval, because we evaluate only constant array
48  * accesses like a.b.c[8].d
49  */
50 typedef union {
51   entity *ent;
52   tarval *tv;
53 } path_elem_t;
54
55 /**
56  * An access path, used to assign value numbers
57  * to variables that will be scalar replaced
58  */
59 typedef struct _path_t {
60   unsigned    vnum;      /**< the value number */
61   unsigned    path_len;  /**< the length of the access path */
62   path_elem_t path[1];   /**< the path */
63 } path_t;
64
65 /** The size of a path in bytes */
66 #define PATH_SIZE(p)  (sizeof(*(p)) + sizeof((p)->path[0]) * ((p)->path_len - 1))
67
68 typedef struct _scalars_t {
69   entity *ent;                 /**< A entity for scalar replacement. */
70   ir_type *ent_owner;          /**< The owner of this entity. */
71 } scalars_t;
72
73
74 /**
75  * Compare two pathes.
76  *
77  * @return 0 if they are identically
78  */
79 static int path_cmp(const void *elt, const void *key, size_t size)
80 {
81   const path_t *p1 = elt;
82   const path_t *p2 = key;
83
84   /* we can use memcmp here, because identical tarvals should have identical addresses */
85   return memcmp(p1->path, p2->path, p1->path_len * sizeof(p1->path[0]));
86 }
87
88 /**
89  * Compare two elements of the scalars_t set.
90  *
91  * @return 0 if they are identically
92  */
93 static int ent_cmp(const void *elt, const void *key, size_t size)
94 {
95   const scalars_t *c1 = elt;
96   const scalars_t *c2 = key;
97
98   return c1->ent != c2->ent;
99 }
100
101 /**
102  * Calculate a hash value for a path.
103  */
104 static unsigned path_hash(const path_t *path)
105 {
106   unsigned hash = 0;
107   unsigned i;
108
109   for (i = 0; i < path->path_len; ++i)
110     hash ^= (unsigned)PTR_TO_INT(path->path[i].ent);
111
112   return hash >> 4;
113 }
114
115 /**
116  * Returns non-zero, if all indeces of a Sel node are constants.
117  *
118  * @param sel  the Sel node that will be checked
119  */
120 static int is_const_sel(ir_node *sel) {
121   int i, n = get_Sel_n_indexs(sel);
122
123   for (i = 0; i < n; ++i) {
124     ir_node *idx = get_Sel_index(sel, i);
125
126     if (get_irn_op(idx) != op_Const)
127       return 0;
128   }
129   return 1;
130 }
131
132 /*
133  * Returns non-zero, if the address of an entity
134  * represented by a Sel node (or it's successor Sels) is taken.
135  */
136 int is_address_taken(ir_node *sel)
137 {
138   int i;
139
140   if (! is_const_sel(sel))
141     return 1;
142
143   for (i = get_irn_n_outs(sel) - 1; i >= 0; --i) {
144     ir_node *succ = get_irn_out(sel, i);
145
146     switch (get_irn_opcode(succ)) {
147     case iro_Load:
148       /* ok, we just load from that entity */
149       break;
150
151     case iro_Store:
152       /* check that Sel is not the Store's value */
153       if (get_Store_value(succ) == sel)
154         return 1;
155       break;
156
157     case iro_Sel: {
158       /* Check the Sel successor of Sel */
159       int res = is_address_taken(succ);
160
161       if (res)
162         return 1;
163       break;
164     }
165
166     case iro_Call:
167       /* The address of an entity is given as a parameter.
168        * As long as we do not have analyses that can tell what
169        * is done with parameters, think is taken.
170        */
171       return 1;
172
173     default:
174       /* another op, the address is taken */
175       return 1;
176     }
177   }
178   return 0;
179 }
180
181 /**
182  * Link all leave Sels with the entity.
183  *
184  * @param ent  the entity that will be scalar replaced
185  * @param sel  a Sel node that selects some fields of this entity
186  */
187 static void link_all_leave_sels(entity *ent, ir_node *sel)
188 {
189   int i, n, flag = 1;
190
191   n = get_irn_n_outs(sel);
192   for (i = 0; i < n; ++i) {
193     ir_node *succ = get_irn_out(sel, i);
194
195     if (is_Sel(succ)) {
196       link_all_leave_sels(ent, succ);
197       flag = 0;
198     }
199   }
200
201   if (flag) {
202     /* if Sel nodes with memory inputs are used, a entity can be
203      * visited more than once causing a ring here, so we use the
204      * node flag to mark linked nodes
205      */
206     if (irn_visited(sel))
207       return;
208
209     /* we know we are at a leave, because this function is only
210      * called if the address is NOT taken, so succ must be a Load
211      * or a Store node
212      */
213     set_irn_link(sel, get_entity_link(ent));
214     set_entity_link(ent, sel);
215
216     mark_irn_visited(sel);
217   }
218 }
219
220 /* we need a special address that serves as an address taken marker */
221 static char _x;
222 static void *ADDRESS_TAKEN = &_x;
223
224 /**
225  * Find possible scalar replacements.
226  *
227  * @param irg  an IR graph
228  *
229  * This function finds variables on the (members of the) frame type
230  * that can be scalar replaced, because their address is never taken.
231  * If such a variable is found, it's entity link will hold a list of all
232  * Sel nodes, that selects the atomic fields of this entity.
233  * Otherwise, the link will be ADDRESS_TAKEN or NULL.
234  *
235  * @return  non-zero if at least one entity could be replaced
236  *          potentially
237  */
238 static int find_possible_replacements(ir_graph *irg)
239 {
240   ir_node *irg_frame = get_irg_frame(irg);
241   int i, n;
242   int res = 0;
243
244   inc_irg_visited(irg);
245
246   n = get_irn_n_outs(irg_frame);
247
248   /*
249    * First, clear the link field of all interesting entities.
250    * Note that we did not rely on the fact that there is only
251    * one Sel node per entity, so we might access one entity
252    * more than once here.
253    * That's why we have need two loops.
254    */
255   for (i = 0; i < n; ++i) {
256     ir_node *succ = get_irn_out(irg_frame, i);
257
258     if (is_Sel(succ)) {
259       entity *ent = get_Sel_entity(succ);
260       set_entity_link(ent, NULL);
261     }
262   }
263
264   /*
265    * Check the ir_graph for Sel nodes. If the entity of Sel
266    * isn't a scalar replacement set the link of this entity
267    * equal ADDRESS_TAKEN.
268    */
269   for (i = 0; i < n; ++i) {
270     ir_node *succ = get_irn_out(irg_frame, i);
271
272     if (is_Sel(succ)) {
273       entity *ent = get_Sel_entity(succ);
274       ir_type *ent_type;
275
276       if (get_entity_link(ent) == ADDRESS_TAKEN)
277         continue;
278
279       /*
280        * Beware: in rare cases even entities on the frame might be
281        * volatile. This might happen if the entity serves as a store
282        * to a value that must survive a exception. Do not optimize
283        * such entities away.
284        */
285       if (get_entity_volatility(ent) == volatility_is_volatile) {
286         set_entity_link(ent, ADDRESS_TAKEN);
287         continue;
288       }
289
290       ent_type = get_entity_type(ent);
291
292       /* we can handle arrays, structs and atomic types yet */
293       if (is_Array_type(ent_type) || is_Struct_type(ent_type) || is_atomic_type(ent_type)) {
294         if (is_address_taken(succ)) {
295           if (get_entity_link(ent)) /* killing one */
296             --res;
297           set_entity_link(ent, ADDRESS_TAKEN);
298         }
299         else {
300           /* possible found one */
301           if (get_entity_link(ent) == NULL)
302             ++res;
303           link_all_leave_sels(ent, succ);
304         }
305       }
306     }
307   }
308
309   return res;
310 }
311
312 /**
313  * Return a path from the Sel node sel to it's root.
314  *
315  * @param sel  the Sel node
316  * @param len  the length of the path so far
317  */
318 static path_t *find_path(ir_node *sel, unsigned len)
319 {
320   int pos, i, n;
321   path_t *res;
322   ir_node *pred = get_Sel_ptr(sel);
323
324   /* the current Sel node will add some path elements */
325   n    = get_Sel_n_indexs(sel);
326   len += n + 1;
327
328   if (! is_Sel(pred)) {
329     /* we found the root */
330
331     res = xmalloc(sizeof(*res) + (len - 1) * sizeof(res->path));
332     res->path_len = len;
333   }
334   else
335     res = find_path(pred, len);
336
337   pos = res->path_len - len;
338
339   res->path[pos++].ent = get_Sel_entity(sel);
340   for (i = 0; i < n; ++i) {
341     ir_node *index = get_Sel_index(sel, i);
342
343     res->path[pos++].tv = get_Const_tarval(index);
344   }
345   return res;
346 }
347
348
349 /**
350  * Allocate value numbers for the leaves
351  * in our found entities.
352  *
353  * @param sels  a set that will contain all Sels that have a value number
354  * @param ent   the entity that will be scalar replaced
355  * @param vnum  the first value number we can assign
356  * @param modes a flexible array, containing all the modes of
357  *              the value numbers.
358  *
359  * @return the next free value number
360  */
361 static unsigned allocate_value_numbers(pset *sels, entity *ent, unsigned vnum, ir_mode ***modes)
362 {
363   ir_node *sel, *next;
364   path_t *key, *path;
365   set *pathes = new_set(path_cmp, 8);
366
367   /* visit all Sel nodes in the chain of the entity */
368   for (sel = get_entity_link(ent); sel; sel = next) {
369     next = get_irn_link(sel);
370
371     /* we must mark this sel for later */
372     pset_insert_ptr(sels, sel);
373
374     key  = find_path(sel, 0);
375     path = set_find(pathes, key, PATH_SIZE(key), path_hash(key));
376
377     if (path)
378       SET_VNUM(sel, path->vnum);
379     else {
380       unsigned i;
381
382       key->vnum = vnum++;
383
384       set_insert(pathes, key, PATH_SIZE(key), path_hash(key));
385
386       SET_VNUM(sel, key->vnum);
387       ARR_EXTO(ir_mode *, *modes, (key->vnum + 15) & ~15);
388
389       (*modes)[key->vnum] = get_type_mode(get_entity_type(get_Sel_entity(sel)));
390
391       assert((*modes)[key->vnum] && "Value is not atomic");
392
393 #ifdef DEBUG_libfirm
394       /* Debug output */
395       if (get_opt_scalar_replacement_verbose() && get_firm_verbosity() > 1) {
396         printf("  %s", get_entity_name(key->path[0].ent));
397         for (i = 1; i < key->path_len; ++i) {
398           if (is_entity(key->path[i].ent))
399             printf(".%s", get_entity_name(key->path[i].ent));
400           else
401             printf("[%ld]", get_tarval_long(key->path[i].tv));
402         }
403         printf(" = %u (%s)\n", PTR_TO_INT(get_irn_link(sel)), get_mode_name((*modes)[key->vnum]));
404       }
405 #endif /* DEBUG_libfirm */
406     }
407     free(key);
408   }
409
410   del_set(pathes);
411   set_entity_link(ent, NULL);
412   return vnum;
413 }
414
415 /**
416  * A list entry for the fixing lists
417  */
418 typedef struct _list_entry_t {
419   ir_node  *node;   /**< the node that must be fixed */
420   unsigned vnum;    /**< the value number of this node */
421 } list_entry_t;
422
423 /**
424  * environment for memory walker
425  */
426 typedef struct _env_t {
427   struct obstack obst;      /**< a obstack for the value blocks */
428   int          nvals;       /**< number of values */
429   ir_mode      **modes;     /**< the modes of the values */
430   list_entry_t *fix_phis;   /**< list of all Phi nodes that must be fixed */
431   list_entry_t *fix_loads;  /**< list of all Load nodes that must be fixed */
432   pset         *sels;       /**< A set of all Sel nodes that have a value number */
433 } env_t;
434
435 /**
436  * Walker
437  */
438 static void handle_first(ir_node *node, void *ctx)
439 {
440   env_t        *env = ctx;
441   ir_op        *op = get_irn_op(node);
442   ir_node      *adr, *block, *mem, *unk, **value_arr, **in;
443   unsigned     vnum;
444   int          i, j, n;
445   list_entry_t *l;
446
447   if (op == op_Load) {
448     /* a load, check if we can resolve it */
449     adr = get_Load_ptr(node);
450
451     if (! is_Sel(adr))
452       return;
453
454     if (! pset_find_ptr(env->sels, adr))
455       return;
456
457     /* ok, we have a Load that will be replaced */
458     vnum = GET_VNUM(adr);
459
460     assert(vnum < (unsigned)env->nvals);
461
462     block     = get_nodes_block(node);
463     value_arr = get_irn_link(block);
464
465     /* check, if we can replace this Load */
466     if (value_arr[vnum]) {
467       mem = get_Load_mem(node);
468
469       turn_into_tuple(node, pn_Load_max);
470       set_Tuple_pred(node, pn_Load_M,        mem);
471       set_Tuple_pred(node, pn_Load_res,      value_arr[vnum]);
472       set_Tuple_pred(node, pn_Load_X_except, new_Bad());
473     }
474     else {
475       l = obstack_alloc(&env->obst, sizeof(*l));
476       l->node = node;
477       l->vnum = vnum;
478
479       set_irn_link(node, env->fix_loads);
480       env->fix_loads = l;
481     }
482   }
483   else if (op == op_Store) {
484     /* a Store always can be replaced */
485     adr = get_Store_ptr(node);
486
487     if (! is_Sel(adr))
488       return;
489
490     if (! pset_find_ptr(env->sels, adr))
491       return;
492
493     vnum = GET_VNUM(adr);
494
495     assert(vnum < (unsigned)env->nvals);
496
497     block     = get_nodes_block(node);
498     value_arr = get_irn_link(block);
499
500     value_arr[vnum] = get_Store_value(node);
501
502     mem = get_Store_mem(node);
503
504     turn_into_tuple(node, pn_Store_max);
505     set_Tuple_pred(node, pn_Store_M,        mem);
506     set_Tuple_pred(node, pn_Store_X_except, new_Bad());
507   }
508   else if (op == op_Phi && get_irn_mode(node) == mode_M) {
509     /*
510      * found a memory Phi: Here, we must create new Phi nodes
511      */
512     block     = get_nodes_block(node);
513     value_arr = get_irn_link(block);
514
515     n = get_Block_n_cfgpreds(block);
516
517     in = alloca(sizeof(*in) * n);
518
519     for (i = env->nvals - 1; i >= 0; --i) {
520       unk = new_Unknown(env->modes[i]);
521       for (j = n - 1; j >= 0; --j)
522         in[j] = unk;
523
524       value_arr[i] = new_r_Phi(current_ir_graph, block, n, in, env->modes[i]);
525
526       l = obstack_alloc(&env->obst, sizeof(*l));
527       l->node = value_arr[i];
528       l->vnum = i;
529
530       set_irn_link(value_arr[i], env->fix_phis);
531       env->fix_phis = l;
532     }
533   }
534 }
535
536 /**
537  * Walker: allocate the value array for every block.
538  */
539 static void alloc_value_arr(ir_node *block, void *ctx)
540 {
541   env_t *env = ctx;
542   ir_node **var_arr = obstack_alloc(&env->obst, sizeof(*var_arr) * env->nvals);
543
544   /* the value array is empty at start */
545   memset(var_arr, 0, sizeof(*var_arr) * env->nvals);
546   set_irn_link(block, var_arr);
547 }
548
549 /**
550  * searches through blocks beginning from block for value
551  * vnum and return it.
552  */
553 static ir_node *find_value(ir_node *block, unsigned vnum)
554 {
555   ir_node **value_arr;
556   int i;
557   ir_node *res;
558
559   if (Block_not_block_visited(block)) {
560     mark_Block_block_visited(block);
561
562     value_arr = get_irn_link(block);
563
564     if (value_arr[vnum])
565       return value_arr[vnum];
566
567     for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
568       ir_node *pred = get_Block_cfgpred(block, i);
569
570       res = find_value(get_nodes_block(pred), vnum);
571       if (res)
572         return res;
573     }
574   }
575   return NULL;
576 }
577
578 /**
579  * fix the Phi list
580  */
581 static void fix_phis(env_t *env)
582 {
583   list_entry_t *l;
584   ir_node      *phi, *block, *pred, *val;
585   int          i;
586
587   for (l = env->fix_phis; l; l = get_irn_link(phi)) {
588     phi = l->node;
589
590     block = get_nodes_block(phi);
591     for (i = get_irn_arity(phi) - 1; i >= 0; --i) {
592       pred = get_Block_cfgpred(block, i);
593       pred = get_nodes_block(pred);
594
595       inc_irg_block_visited(current_ir_graph);
596       val = find_value(pred, l->vnum);
597
598       if (val)
599         set_irn_n(phi, i, val);
600     }
601   }
602 }
603
604 /**
605  * fix the Load list
606  */
607 static void fix_loads(env_t *env)
608 {
609   list_entry_t *l;
610   ir_node      *load, *block, *pred, *val, *mem;
611   int          i;
612
613   for (l = env->fix_loads; l; l = get_irn_link(load)) {
614     load = l->node;
615
616     block = get_nodes_block(load);
617     for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
618       pred = get_Block_cfgpred(block, i);
619       pred = get_nodes_block(pred);
620
621       inc_irg_block_visited(current_ir_graph);
622       val = find_value(pred, l->vnum);
623
624       if (val)
625         break;
626     }
627
628     if (! val) {
629       /* access of an uninitialized value */
630       val = new_Unknown(env->modes[l->vnum]);
631     }
632
633     mem = get_Load_mem(load);
634
635     turn_into_tuple(load, pn_Load_max);
636     set_Tuple_pred(load, pn_Load_M,        mem);
637     set_Tuple_pred(load, pn_Load_res,      val);
638     set_Tuple_pred(load, pn_Load_X_except, new_Bad());
639   }
640 }
641
642 /**
643  *  Make scalar replacement.
644  *
645  * @param sels    A set containing all Sel nodes that have a value number
646  * @param nvals   The number of scalars.
647  * @param modes   A flexible array, containing all the modes of
648  *                the value numbers.
649  */
650 static void do_scalar_replacements(pset *sels, int nvals, ir_mode **modes)
651 {
652   env_t env;
653
654   obstack_init(&env.obst);
655   env.nvals     = nvals;
656   env.modes     = modes;
657   env.fix_phis  = NULL;
658   env.fix_loads = NULL;
659   env.sels      = sels;
660
661   /* first step: allocate the value arrays for every block */
662   irg_block_walk_graph(current_ir_graph, NULL, alloc_value_arr, &env);
663
664   /*
665    * second step: walk over the graph blockwise in topological order
666    * and fill the array as much as possible.
667    */
668   irg_walk_blkwise_graph(current_ir_graph, NULL, handle_first, &env);
669
670   /* third, fix the list of Phis, then the list of Loads */
671   fix_phis(&env);
672   fix_loads(&env);
673
674   obstack_free(&env.obst, NULL);
675 }
676
677 /*
678  * Find possible scalar replacements
679  *
680  * @param irg  The current ir graph.
681  */
682 void scalar_replacement_opt(ir_graph *irg)
683 {
684   unsigned  nvals;
685   int       i;
686   scalars_t key, *value;
687   ir_node   *irg_frame;
688   ir_mode   **modes;
689   set       *set_ent;
690   pset      *sels;
691   ir_type   *ent_type;
692   ir_graph  *rem;
693
694   if (! get_opt_scalar_replacement())
695     return;
696
697   rem = current_ir_graph;
698
699   /* Call algorithm that computes the out edges */
700   assure_irg_outs(irg);
701
702   /* Find possible scalar replacements */
703   if (find_possible_replacements(irg)) {
704
705     if (get_opt_scalar_replacement_verbose()) {
706       printf("Scalar Replacement: %s\n", get_entity_name(get_irg_entity(irg)));
707     }
708
709     /* Insert in set the scalar replacements. */
710     irg_frame = get_irg_frame(irg);
711     nvals = 0;
712     modes = NEW_ARR_F(ir_mode *, 16);
713     set_ent = new_set(ent_cmp, 8);
714     sels    = pset_new_ptr(8);
715
716     for (i = 0 ; i < get_irn_n_outs(irg_frame); i++) {
717       ir_node *succ = get_irn_out(irg_frame, i);
718
719       if (is_Sel(succ)) {
720         entity *ent = get_Sel_entity(succ);
721
722         if (get_entity_link(ent) == NULL || get_entity_link(ent) == ADDRESS_TAKEN)
723           continue;
724
725         ent_type = get_entity_type(ent);
726
727         key.ent       = ent;
728         key.ent_owner = get_entity_owner(ent);
729         set_insert(set_ent, &key, sizeof(key), HASH_PTR(key.ent));
730
731         if (get_opt_scalar_replacement_verbose()) {
732           if (is_Array_type(ent_type)) {
733             printf("  found array %s\n", get_entity_name(ent));
734           }
735           else if (is_Struct_type(ent_type)) {
736             printf("  found struct %s\n", get_entity_name(ent));
737           }
738           else if (is_atomic_type(ent_type))
739             printf("  found atomic value %s\n", get_entity_name(ent));
740           else {
741             assert(0 && "Neither an array nor a struct or atomic value");
742           }
743         }
744
745         nvals = allocate_value_numbers(sels, ent, nvals, &modes);
746       }
747     }
748
749     if (get_opt_scalar_replacement_verbose()) {
750       printf("  %u values will be needed\n", nvals);
751     }
752
753     /* If scalars were found. */
754     if (nvals) {
755       do_scalar_replacements(sels, nvals, modes);
756
757       for (value = set_first(set_ent); value; value = set_next(set_ent)) {
758         remove_class_member(value->ent_owner, value->ent);
759       }
760     }
761
762     del_pset(sels);
763     del_set(set_ent);
764     DEL_ARR_F(modes);
765
766     if (nvals) {
767       /*
768        * We changed the graph, but did NOT introduce new blocks
769        * neither changed control flow, cf-backedges should be still
770        * consistent.
771        */
772       set_irg_outs_inconsistent(irg);
773       set_irg_loopinfo_inconsistent(irg);
774     }
775   }
776
777   current_ir_graph = rem;
778 }