Fixed combo by fixing an old artefact from the older libFirm Cmp nodes.
[libfirm] / ir / opt / combo.c
1 /*
2  * Copyright (C) 1995-2011 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Cliff Click's Combined Analysis/Optimization
23  * @author  Michael Beck
24  * @version $Id$
25  *
26  * This is a slightly enhanced version of Cliff Clicks combo algorithm
27  * - support for commutative nodes is added, Add(a,b) and Add(b,a) ARE congruent
28  * - supports all Firm direct (by a data edge) identities except Mux
29  *   (Mux can be a 2-input or 1-input identity, only 2-input is implemented yet)
30  * - supports Confirm nodes (handle them like Copies but do NOT remove them)
31  * - let Cmp nodes calculate Top like all othe data nodes: this would let
32  *   Mux nodes to calculate Unknown instead of taking the true result
33  * - let Cond(Top) always select FALSE/default: This is tricky. Nodes are only reavaluated
34  *   IFF the predecessor changed its type. Because nodes are initialized with Top
35  *   this never happens, let all Proj(Cond) be unreachable.
36  *   We avoid this condition by the same way we work around Phi: whenever a Block
37  *   node is placed on the list, place its Cond nodes (and because they are Tuple
38  *   all its Proj-nodes either on the cprop list)
39  *   Especially, this changes the meaning of Click's example:
40  *
41  *   int main() {
42  *     int x;
43  *
44  *     if (x == 2)
45  *       printf("x == 2\n");
46  *     if (x == 3)
47  *       printf("x == 3\n");
48  *   }
49  *
50  *   Would print:
51  *   x == 2
52  *   x == 3
53  *
54  *   using Click's version while is silent with our.
55  * - support for global congruences is implemented but not tested yet
56  *
57  * Note further that we use the terminology from Click's work here, which is different
58  * in some cases from Firm terminology.  Especially, Click's type is a
59  * Firm tarval/entity, nevertheless we call it type here for "maximum compatibility".
60  */
61 #include "config.h"
62
63 #include <assert.h>
64
65 #include "iroptimize.h"
66 #include "irflag.h"
67 #include "ircons.h"
68 #include "list.h"
69 #include "set.h"
70 #include "pmap.h"
71 #include "obstack.h"
72 #include "irgraph_t.h"
73 #include "irnode_t.h"
74 #include "iropt_t.h"
75 #include "irgwalk.h"
76 #include "irop.h"
77 #include "irouts.h"
78 #include "irgmod.h"
79 #include "iropt_dbg.h"
80 #include "debug.h"
81 #include "array_t.h"
82 #include "error.h"
83 #include "irnodeset.h"
84 #include "irpass.h"
85 #include "tv_t.h"
86 #include "irtools.h"
87
88 #include "irprintf.h"
89 #include "irdump.h"
90
91 /* define this to check that all type translations are monotone */
92 #define VERIFY_MONOTONE
93
94 /* define this to check the consistency of partitions */
95 #define CHECK_PARTITIONS
96
97 typedef struct node_t            node_t;
98 typedef struct partition_t       partition_t;
99 typedef struct opcode_key_t      opcode_key_t;
100 typedef struct listmap_entry_t   listmap_entry_t;
101
102 /** The type of the compute function. */
103 typedef void (*compute_func)(node_t *node);
104
105 /**
106  * An opcode map key.
107  */
108 struct opcode_key_t {
109         ir_node *irn;    /**< An IR node representing this opcode. */
110 };
111
112 /**
113  * An entry in the list_map.
114  */
115 struct listmap_entry_t {
116         void            *id;    /**< The id. */
117         node_t          *list;  /**< The associated list for this id. */
118         listmap_entry_t *next;  /**< Link to the next entry in the map. */
119 };
120
121 /** We must map id's to lists. */
122 typedef struct listmap_t {
123         set             *map;    /**< Map id's to listmap_entry_t's */
124         listmap_entry_t *values; /**< List of all values in the map. */
125 } listmap_t;
126
127 /**
128  * A lattice element. Because we handle constants and symbolic constants different, we
129  * have to use this union.
130  */
131 typedef union {
132         ir_tarval      *tv;
133         symconst_symbol sym;
134 } lattice_elem_t;
135
136 /**
137  * A node.
138  */
139 struct node_t {
140         ir_node         *node;          /**< The IR-node itself. */
141         list_head       node_list;      /**< Double-linked list of leader/follower entries. */
142         list_head       cprop_list;     /**< Double-linked partition.cprop list. */
143         partition_t     *part;          /**< points to the partition this node belongs to */
144         node_t          *next;          /**< Next node on local list (partition.touched, fallen). */
145         node_t          *race_next;     /**< Next node on race list. */
146         lattice_elem_t  type;           /**< The associated lattice element "type". */
147         int             max_user_input; /**< Maximum input number of Def-Use edges. */
148         int             next_edge;      /**< Index of the next Def-Use edge to use. */
149         int             n_followers;    /**< Number of Follower in the outs set. */
150         unsigned        on_touched:1;   /**< Set, if this node is on the partition.touched set. */
151         unsigned        on_cprop:1;     /**< Set, if this node is on the partition.cprop list. */
152         unsigned        on_fallen:1;    /**< Set, if this node is on the fallen list. */
153         unsigned        is_follower:1;  /**< Set, if this node is a follower. */
154         unsigned        flagged:2;      /**< 2 Bits, set if this node was visited by race 1 or 2. */
155 };
156
157 /**
158  * A partition containing congruent nodes.
159  */
160 struct partition_t {
161         list_head         Leader;          /**< The head of partition Leader node list. */
162         list_head         Follower;        /**< The head of partition Follower node list. */
163         list_head         cprop;           /**< The head of partition.cprop list. */
164         list_head         cprop_X;         /**< The head of partition.cprop (Cond nodes and its Projs) list. */
165         partition_t       *wl_next;        /**< Next entry in the work list if any. */
166         partition_t       *touched_next;   /**< Points to the next partition in the touched set. */
167         partition_t       *cprop_next;     /**< Points to the next partition in the cprop list. */
168         partition_t       *split_next;     /**< Points to the next partition in the list that must be split by split_by(). */
169         node_t            *touched;        /**< The partition.touched set of this partition. */
170         unsigned          n_leader;        /**< Number of entries in this partition.Leader. */
171         unsigned          n_touched;       /**< Number of entries in the partition.touched. */
172         int               max_user_inputs; /**< Maximum number of user inputs of all entries. */
173         unsigned          on_worklist:1;   /**< Set, if this partition is in the work list. */
174         unsigned          on_touched:1;    /**< Set, if this partition is on the touched set. */
175         unsigned          on_cprop:1;      /**< Set, if this partition is on the cprop list. */
176         unsigned          type_is_T_or_C:1;/**< Set, if all nodes in this partition have type Top or Constant. */
177 #ifdef DEBUG_libfirm
178         partition_t       *dbg_next;       /**< Link all partitions for debugging */
179         unsigned          nr;              /**< A unique number for (what-)mapping, >0. */
180 #endif
181 };
182
183 typedef struct environment_t {
184         struct obstack  obst;           /**< obstack to allocate data structures. */
185         partition_t     *worklist;      /**< The work list. */
186         partition_t     *cprop;         /**< The constant propagation list. */
187         partition_t     *touched;       /**< the touched set. */
188         partition_t     *initial;       /**< The initial partition. */
189         set             *opcode2id_map; /**< The opcodeMode->id map. */
190         ir_node         **kept_memory;  /**< Array of memory nodes that must be kept. */
191         int             end_idx;        /**< -1 for local and 0 for global congruences. */
192         int             lambda_input;   /**< Captured argument for lambda_partition(). */
193         unsigned        modified:1;     /**< Set, if the graph was modified. */
194         unsigned        unopt_cf:1;     /**< If set, control flow is not optimized due to Unknown. */
195         /* options driving the optimization */
196         unsigned        commutative:1;  /**< Set, if commutation nodes should be handled specially. */
197         unsigned        opt_unknown:1;  /**< Set, if non-strict programs should be optimized. */
198 #ifdef DEBUG_libfirm
199         partition_t     *dbg_list;      /**< List of all partitions. */
200 #endif
201 } environment_t;
202
203 /** Type of the what function. */
204 typedef void *(*what_func)(const node_t *node, environment_t *env);
205
206 #define get_irn_node(irn)         ((node_t *)get_irn_link(irn))
207 #define set_irn_node(irn, node)   set_irn_link(irn, node)
208
209 /* we do NOT use tarval_unreachable here, instead we use Top for this purpose */
210 #undef tarval_unreachable
211 #define tarval_unreachable tarval_top
212
213
214 /** The debug module handle. */
215 DEBUG_ONLY(static firm_dbg_module_t *dbg;)
216
217 /** The what reason. */
218 DEBUG_ONLY(static const char *what_reason;)
219
220 /** Next partition number. */
221 DEBUG_ONLY(static unsigned part_nr = 0);
222
223 /** The tarval returned by Unknown nodes: set to either tarval_bad OR tarval_top. */
224 static ir_tarval *tarval_UNKNOWN;
225
226 /* forward */
227 static node_t *identity(node_t *node);
228
229 /**
230  * Compare two opcode representatives.
231  */
232 static int cmp_irn_opcode(const ir_node *a, const ir_node *b)
233 {
234         int arity;
235
236         if ((get_irn_op(a) != get_irn_op(b)) ||
237             (get_irn_mode(a) != get_irn_mode(b)))
238                 return 1;
239
240         /* compare if a's in and b's in are of equal length */
241         arity = get_irn_arity(a);
242         if (arity != get_irn_arity(b))
243                 return 1;
244
245         if (is_Block(a)) {
246                 /*
247                  * Some ugliness here: Two Blocks having the same
248                  * IJmp predecessor would be congruent, which of course is wrong.
249                  * We fix it by never letting blocks be congruent
250                  * which cannot be detected by combo either.
251                  */
252                 return 1;
253         }
254
255         /*
256          * here, we already know that the nodes are identical except their
257          * attributes
258          */
259         if (a->op->ops.node_cmp_attr)
260                 return a->op->ops.node_cmp_attr(a, b);
261
262         return 0;
263 }  /* cmp_irn_opcode */
264
265 #ifdef CHECK_PARTITIONS
266 /**
267  * Check a partition.
268  */
269 static void check_partition(const partition_t *T)
270 {
271         node_t   *node;
272         unsigned n = 0;
273
274         list_for_each_entry(node_t, node, &T->Leader, node_list) {
275                 assert(node->is_follower == 0);
276                 assert(node->flagged == 0);
277                 assert(node->part == T);
278                 ++n;
279         }
280         assert(n == T->n_leader);
281
282         list_for_each_entry(node_t, node, &T->Follower, node_list) {
283                 assert(node->is_follower == 1);
284                 assert(node->flagged == 0);
285                 assert(node->part == T);
286         }
287 }  /* check_partition */
288
289 /**
290  * check that all leader nodes in the partition have the same opcode.
291  */
292 static void check_opcode(const partition_t *Z)
293 {
294         node_t        *node;
295         const ir_node *repr = NULL;
296
297         list_for_each_entry(node_t, node, &Z->Leader, node_list) {
298                 ir_node *irn = node->node;
299
300                 if (repr == NULL) {
301                         repr = irn;
302                 } else {
303                         assert(cmp_irn_opcode(repr, irn) == 0);
304                 }
305         }
306 }  /* check_opcode */
307
308 static void check_all_partitions(environment_t *env)
309 {
310 #ifdef DEBUG_libfirm
311         partition_t *P;
312         node_t      *node;
313
314         for (P = env->dbg_list; P != NULL; P = P->dbg_next) {
315                 check_partition(P);
316                 if (! P->type_is_T_or_C)
317                         check_opcode(P);
318                 list_for_each_entry(node_t, node, &P->Follower, node_list) {
319                         node_t *leader = identity(node);
320
321                         assert(leader != node && leader->part == node->part);
322                 }
323         }
324 #else
325         (void) env;
326 #endif
327 }
328
329 /**
330  * Check list.
331  */
332 static void do_check_list(const node_t *list, int ofs, const partition_t *Z)
333 {
334
335 #ifndef NDEBUG
336         const node_t *e;
337 #define NEXT(e)  *((const node_t **)((char *)(e) + (ofs)))
338         for (e = list; e != NULL; e = NEXT(e)) {
339                 assert(e->part == Z);
340         }
341 #undef NEXT
342 #else
343         (void) list;
344         (void) ofs;
345         (void) Z;
346 #endif
347 }  /* ido_check_list */
348
349 /**
350  * Check a local list.
351  */
352 static void check_list(const node_t *list, const partition_t *Z)
353 {
354         do_check_list(list, offsetof(node_t, next), Z);
355 }  /* check_list */
356
357 #else
358 #define check_partition(T)
359 #define check_list(list, Z)
360 #define check_all_partitions(env)
361 #endif /* CHECK_PARTITIONS */
362
363 #ifdef DEBUG_libfirm
364 static inline lattice_elem_t get_partition_type(const partition_t *X);
365
366 /**
367  * Dump partition to output.
368  */
369 static void dump_partition(const char *msg, const partition_t *part)
370 {
371         const node_t   *node;
372         int            first = 1;
373         lattice_elem_t type = get_partition_type(part);
374
375         DB((dbg, LEVEL_2, "%s part%u%s (%u, %+F) {\n  ",
376                 msg, part->nr, part->type_is_T_or_C ? "*" : "",
377                 part->n_leader, type));
378         list_for_each_entry(node_t, node, &part->Leader, node_list) {
379                 DB((dbg, LEVEL_2, "%s%+F", first ? "" : ", ", node->node));
380                 first = 0;
381         }
382         if (! list_empty(&part->Follower)) {
383                 DB((dbg, LEVEL_2, "\n---\n  "));
384                 first = 1;
385                 list_for_each_entry(node_t, node, &part->Follower, node_list) {
386                         DB((dbg, LEVEL_2, "%s%+F", first ? "" : ", ", node->node));
387                         first = 0;
388                 }
389         }
390         DB((dbg, LEVEL_2, "\n}\n"));
391 }  /* dump_partition */
392
393 /**
394  * Dumps a list.
395  */
396 static void do_dump_list(const char *msg, const node_t *node, int ofs)
397 {
398         const node_t *p;
399         int          first = 1;
400
401 #define GET_LINK(p, ofs)  *((const node_t **)((char *)(p) + (ofs)))
402
403         DB((dbg, LEVEL_3, "%s = {\n  ", msg));
404         for (p = node; p != NULL; p = GET_LINK(p, ofs)) {
405                 DB((dbg, LEVEL_3, "%s%+F", first ? "" : ", ", p->node));
406                 first = 0;
407         }
408         DB((dbg, LEVEL_3, "\n}\n"));
409
410 #undef GET_LINK
411 }  /* do_dump_list */
412
413 /**
414  * Dumps a race list.
415  */
416 static void dump_race_list(const char *msg, const node_t *list)
417 {
418         do_dump_list(msg, list, offsetof(node_t, race_next));
419 }  /* dump_race_list */
420
421 /**
422  * Dumps a local list.
423  */
424 static void dump_list(const char *msg, const node_t *list)
425 {
426         do_dump_list(msg, list, offsetof(node_t, next));
427 }  /* dump_list */
428
429 /**
430  * Dump all partitions.
431  */
432 static void dump_all_partitions(const environment_t *env)
433 {
434         const partition_t *P;
435
436         DB((dbg, LEVEL_2, "All partitions\n===============\n"));
437         for (P = env->dbg_list; P != NULL; P = P->dbg_next)
438                 dump_partition("", P);
439 }  /* dump_all_partitions */
440
441 /**
442  * Sump a split list.
443  */
444 static void dump_split_list(const partition_t *list)
445 {
446         const partition_t *p;
447
448         DB((dbg, LEVEL_2, "Split by %s produced = {\n", what_reason));
449         for (p = list; p != NULL; p = p->split_next)
450                 DB((dbg, LEVEL_2, "part%u, ", p->nr));
451         DB((dbg, LEVEL_2, "\n}\n"));
452 }  /* dump_split_list */
453
454 /**
455  * Dump partition and type for a node.
456  */
457 static int dump_partition_hook(FILE *F, ir_node *n, ir_node *local)
458 {
459         ir_node *irn = local != NULL ? local : n;
460         node_t *node = get_irn_node(irn);
461
462         ir_fprintf(F, "info2 : \"partition %u type %+F\"\n", node->part->nr, node->type);
463         return 1;
464 }  /* dump_partition_hook */
465
466 #else
467 #define dump_partition(msg, part)
468 #define dump_race_list(msg, list)
469 #define dump_list(msg, list)
470 #define dump_all_partitions(env)
471 #define dump_split_list(list)
472 #endif
473
474 #if defined(VERIFY_MONOTONE) && defined (DEBUG_libfirm)
475 /**
476  * Verify that a type transition is monotone
477  */
478 static void verify_type(const lattice_elem_t old_type, node_t *node)
479 {
480         if (old_type.tv == node->type.tv) {
481                 /* no change */
482                 return;
483         }
484         if (old_type.tv == tarval_top) {
485                 /* from Top down-to is always allowed */
486                 return;
487         }
488         if (node->type.tv == tarval_bottom || node->type.tv == tarval_reachable) {
489                 /* bottom reached */
490                 return;
491         }
492         panic("combo: wrong translation from %+F to %+F on node %+F", old_type, node->type, node->node);
493 }  /* verify_type */
494
495 #else
496 #define verify_type(old_type, node)
497 #endif
498
499 /**
500  * Compare two pointer values of a listmap.
501  */
502 static int listmap_cmp_ptr(const void *elt, const void *key, size_t size)
503 {
504         const listmap_entry_t *e1 = (listmap_entry_t*)elt;
505         const listmap_entry_t *e2 = (listmap_entry_t*)key;
506
507         (void) size;
508         return e1->id != e2->id;
509 }  /* listmap_cmp_ptr */
510
511 /**
512  * Initializes a listmap.
513  *
514  * @param map  the listmap
515  */
516 static void listmap_init(listmap_t *map)
517 {
518         map->map    = new_set(listmap_cmp_ptr, 16);
519         map->values = NULL;
520 }  /* listmap_init */
521
522 /**
523  * Terminates a listmap.
524  *
525  * @param map  the listmap
526  */
527 static void listmap_term(listmap_t *map)
528 {
529         del_set(map->map);
530 }  /* listmap_term */
531
532 /**
533  * Return the associated listmap entry for a given id.
534  *
535  * @param map  the listmap
536  * @param id   the id to search for
537  *
538  * @return the associated listmap entry for the given id
539  */
540 static listmap_entry_t *listmap_find(listmap_t *map, void *id)
541 {
542         listmap_entry_t key, *entry;
543
544         key.id   = id;
545         key.list = NULL;
546         key.next = NULL;
547         entry = (listmap_entry_t*)set_insert(map->map, &key, sizeof(key), HASH_PTR(id));
548
549         if (entry->list == NULL) {
550                 /* a new entry, put into the list */
551                 entry->next = map->values;
552                 map->values = entry;
553         }
554         return entry;
555 }  /* listmap_find */
556
557 /**
558  * Calculate the hash value for an opcode map entry.
559  *
560  * @param entry  an opcode map entry
561  *
562  * @return a hash value for the given opcode map entry
563  */
564 static unsigned opcode_hash(const opcode_key_t *entry)
565 {
566         /* we cannot use the ir ops hash function here, because it hashes the
567          * predecessors. */
568         const ir_node *n = entry->irn;
569         ir_opcode code  = get_irn_opcode(n);
570         ir_mode   *mode = get_irn_mode(n);
571         unsigned hash = (unsigned)(PTR_TO_INT(mode) * 9 + code) + get_irn_arity(n);
572
573         if (code == iro_Const)
574                 hash ^= (unsigned)HASH_PTR(get_Const_tarval(n));
575         else if (code == iro_Proj)
576                 hash += (unsigned)get_Proj_proj(n);
577         return hash;
578 }  /* opcode_hash */
579
580 /**
581  * Compare two entries in the opcode map.
582  */
583 static int cmp_opcode(const void *elt, const void *key, size_t size)
584 {
585         const opcode_key_t *o1 = (opcode_key_t*)elt;
586         const opcode_key_t *o2 = (opcode_key_t*)key;
587
588         (void) size;
589
590         return cmp_irn_opcode(o1->irn, o2->irn);
591 }  /* cmp_opcode */
592
593 /**
594  * Compare two Def-Use edges for input position.
595  */
596 static int cmp_def_use_edge(const void *a, const void *b)
597 {
598         const ir_def_use_edge *ea = (const ir_def_use_edge*)a;
599         const ir_def_use_edge *eb = (const ir_def_use_edge*)b;
600
601         /* no overrun, because range is [-1, MAXINT] */
602         return ea->pos - eb->pos;
603 }  /* cmp_def_use_edge */
604
605 /**
606  * We need the Def-Use edges sorted.
607  */
608 static void sort_irn_outs(node_t *node)
609 {
610         ir_node *irn = node->node;
611         int n_outs = get_irn_n_outs(irn);
612
613         if (n_outs > 1) {
614                 qsort(&irn->out[1], n_outs, sizeof(irn->out[0]), cmp_def_use_edge);
615         }
616         node->max_user_input = irn->out[n_outs].pos;
617 }  /* sort_irn_outs */
618
619 /**
620  * Return the type of a node.
621  *
622  * @param irn  an IR-node
623  *
624  * @return the associated type of this node
625  */
626 static inline lattice_elem_t get_node_type(const ir_node *irn)
627 {
628         return get_irn_node(irn)->type;
629 }  /* get_node_type */
630
631 /**
632  * Return the tarval of a node.
633  *
634  * @param irn  an IR-node
635  *
636  * @return the associated type of this node
637  */
638 static inline ir_tarval *get_node_tarval(const ir_node *irn)
639 {
640         lattice_elem_t type = get_node_type(irn);
641
642         if (is_tarval(type.tv))
643                 return type.tv;
644         return tarval_bottom;
645 }  /* get_node_type */
646
647 /**
648  * Add a partition to the worklist.
649  */
650 static inline void add_to_worklist(partition_t *X, environment_t *env)
651 {
652         assert(X->on_worklist == 0);
653         DB((dbg, LEVEL_2, "Adding part%d to worklist\n", X->nr));
654         X->wl_next     = env->worklist;
655         X->on_worklist = 1;
656         env->worklist  = X;
657 }  /* add_to_worklist */
658
659 /**
660  * Create a new empty partition.
661  *
662  * @param env   the environment
663  *
664  * @return a newly allocated partition
665  */
666 static inline partition_t *new_partition(environment_t *env)
667 {
668         partition_t *part = OALLOC(&env->obst, partition_t);
669
670         INIT_LIST_HEAD(&part->Leader);
671         INIT_LIST_HEAD(&part->Follower);
672         INIT_LIST_HEAD(&part->cprop);
673         INIT_LIST_HEAD(&part->cprop_X);
674         part->wl_next         = NULL;
675         part->touched_next    = NULL;
676         part->cprop_next      = NULL;
677         part->split_next      = NULL;
678         part->touched         = NULL;
679         part->n_leader        = 0;
680         part->n_touched       = 0;
681         part->max_user_inputs = 0;
682         part->on_worklist     = 0;
683         part->on_touched      = 0;
684         part->on_cprop        = 0;
685         part->type_is_T_or_C  = 0;
686 #ifdef DEBUG_libfirm
687         part->dbg_next        = env->dbg_list;
688         env->dbg_list         = part;
689         part->nr              = part_nr++;
690 #endif
691
692         return part;
693 }  /* new_partition */
694
695 /**
696  * Get the first node from a partition.
697  */
698 static inline node_t *get_first_node(const partition_t *X)
699 {
700         return list_entry(X->Leader.next, node_t, node_list);
701 }  /* get_first_node */
702
703 /**
704  * Return the type of a partition (assuming partition is non-empty and
705  * all elements have the same type).
706  *
707  * @param X  a partition
708  *
709  * @return the type of the first element of the partition
710  */
711 static inline lattice_elem_t get_partition_type(const partition_t *X)
712 {
713         const node_t *first = get_first_node(X);
714         return first->type;
715 }  /* get_partition_type */
716
717 /**
718  * Creates a partition node for the given IR-node and place it
719  * into the given partition.
720  *
721  * @param irn   an IR-node
722  * @param part  a partition to place the node in
723  * @param env   the environment
724  *
725  * @return the created node
726  */
727 static node_t *create_partition_node(ir_node *irn, partition_t *part, environment_t *env)
728 {
729         /* create a partition node and place it in the partition */
730         node_t *node = OALLOC(&env->obst, node_t);
731
732         INIT_LIST_HEAD(&node->node_list);
733         INIT_LIST_HEAD(&node->cprop_list);
734         node->node           = irn;
735         node->part           = part;
736         node->next           = NULL;
737         node->race_next      = NULL;
738         node->type.tv        = tarval_top;
739         node->max_user_input = 0;
740         node->next_edge      = 0;
741         node->n_followers    = 0;
742         node->on_touched     = 0;
743         node->on_cprop       = 0;
744         node->on_fallen      = 0;
745         node->is_follower    = 0;
746         node->flagged        = 0;
747         set_irn_node(irn, node);
748
749         list_add_tail(&node->node_list, &part->Leader);
750         ++part->n_leader;
751
752         return node;
753 }  /* create_partition_node */
754
755 /**
756  * Pre-Walker, initialize all Nodes' type to U or top and place
757  * all nodes into the TOP partition.
758  */
759 static void create_initial_partitions(ir_node *irn, void *ctx)
760 {
761         environment_t *env  = (environment_t*)ctx;
762         partition_t   *part = env->initial;
763         node_t        *node;
764
765         node = create_partition_node(irn, part, env);
766         sort_irn_outs(node);
767         if (node->max_user_input > part->max_user_inputs)
768                 part->max_user_inputs = node->max_user_input;
769
770         if (is_Block(irn)) {
771                 set_Block_phis(irn, NULL);
772         }
773 }  /* create_initial_partitions */
774
775 /**
776  * Post-Walker, collect  all Block-Phi lists, set Cond.
777  */
778 static void init_block_phis(ir_node *irn, void *ctx)
779 {
780         (void) ctx;
781
782         if (is_Phi(irn)) {
783                 ir_node *block = get_nodes_block(irn);
784                 add_Block_phi(block, irn);
785         }
786 }  /* init_block_phis */
787
788 /**
789  * Add a node to the entry.partition.touched set and
790  * node->partition to the touched set if not already there.
791  *
792  * @param y    a node
793  * @param env  the environment
794  */
795 static inline void add_to_touched(node_t *y, environment_t *env)
796 {
797         if (y->on_touched == 0) {
798                 partition_t *part = y->part;
799
800                 y->next       = part->touched;
801                 part->touched = y;
802                 y->on_touched = 1;
803                 ++part->n_touched;
804
805                 if (part->on_touched == 0) {
806                         part->touched_next = env->touched;
807                         env->touched       = part;
808                         part->on_touched   = 1;
809                 }
810
811                 check_list(part->touched, part);
812         }
813 }  /* add_to_touched */
814
815 /**
816  * Place a node on the cprop list.
817  *
818  * @param y    the node
819  * @param env  the environment
820  */
821 static void add_to_cprop(node_t *y, environment_t *env)
822 {
823         ir_node *irn;
824
825         /* Add y to y.partition.cprop. */
826         if (y->on_cprop == 0) {
827                 partition_t *Y = y->part;
828                 ir_node *irn   = y->node;
829
830                 /* place Conds and all its Projs on the cprop_X list */
831                 if (is_Cond(skip_Proj(irn)))
832                         list_add_tail(&y->cprop_list, &Y->cprop_X);
833                 else
834                         list_add_tail(&y->cprop_list, &Y->cprop);
835                 y->on_cprop   = 1;
836
837                 DB((dbg, LEVEL_3, "Add %+F to part%u.cprop\n", y->node, Y->nr));
838
839                 /* place its partition on the cprop list */
840                 if (Y->on_cprop == 0) {
841                         Y->cprop_next = env->cprop;
842                         env->cprop    = Y;
843                         Y->on_cprop   = 1;
844                 }
845         }
846         irn = y->node;
847         if (get_irn_mode(irn) == mode_T) {
848                 /* mode_T nodes always produce tarval_bottom, so we must explicitly
849                  * add its Projs to get constant evaluation to work */
850                 int i;
851
852                 for (i = get_irn_n_outs(irn) - 1; i >= 0; --i) {
853                         node_t *proj = get_irn_node(get_irn_out(irn, i));
854
855                         add_to_cprop(proj, env);
856                 }
857         } else if (is_Block(irn)) {
858                 /* Due to the way we handle Phi's, we must place all Phis of a block on the list
859                  * if someone placed the block. The Block is only placed if the reachability
860                  * changes, and this must be re-evaluated in compute_Phi(). */
861                 ir_node *phi;
862                 for (phi = get_Block_phis(irn); phi != NULL; phi = get_Phi_next(phi)) {
863                         node_t *p = get_irn_node(phi);
864                         add_to_cprop(p, env);
865                 }
866         }
867 }  /* add_to_cprop */
868
869 /**
870  * Update the worklist: If Z is on worklist then add Z' to worklist.
871  * Else add the smaller of Z and Z' to worklist.
872  *
873  * @param Z        the Z partition
874  * @param Z_prime  the Z' partition, a previous part of Z
875  * @param env      the environment
876  */
877 static void update_worklist(partition_t *Z, partition_t *Z_prime, environment_t *env)
878 {
879         if (Z->on_worklist || Z_prime->n_leader < Z->n_leader) {
880                 add_to_worklist(Z_prime, env);
881         } else {
882                 add_to_worklist(Z, env);
883         }
884 }  /* update_worklist */
885
886 /**
887  * Make all inputs to x no longer be F.def_use edges.
888  *
889  * @param x  the node
890  */
891 static void move_edges_to_leader(node_t *x)
892 {
893         ir_node     *irn = x->node;
894         int         i, j, k;
895
896         for (i = get_irn_arity(irn) - 1; i >= 0; --i) {
897                 node_t  *pred = get_irn_node(get_irn_n(irn, i));
898                 ir_node *p;
899                 int     n;
900
901                 p = pred->node;
902                 n = get_irn_n_outs(p);
903                 for (j = 1; j <= pred->n_followers; ++j) {
904                         if (p->out[j].pos == i && p->out[j].use == irn) {
905                                 /* found a follower edge to x, move it to the Leader */
906                                 ir_def_use_edge edge = p->out[j];
907
908                                 /* remove this edge from the Follower set */
909                                 p->out[j] = p->out[pred->n_followers];
910                                 --pred->n_followers;
911
912                                 /* sort it into the leader set */
913                                 for (k = pred->n_followers + 2; k <= n; ++k) {
914                                         if (p->out[k].pos >= edge.pos)
915                                                 break;
916                                         p->out[k - 1] = p->out[k];
917                                 }
918                                 /* place the new edge here */
919                                 p->out[k - 1] = edge;
920
921                                 /* edge found and moved */
922                                 break;
923                         }
924                 }
925         }
926 }  /* move_edges_to_leader */
927
928 /**
929  * Split a partition that has NO followers by a local list.
930  *
931  * @param Z    partition to split
932  * @param g    a (non-empty) node list
933  * @param env  the environment
934  *
935  * @return  a new partition containing the nodes of g
936  */
937 static partition_t *split_no_followers(partition_t *Z, node_t *g, environment_t *env)
938 {
939         partition_t *Z_prime;
940         node_t      *node;
941         unsigned    n = 0;
942         int         max_input;
943
944         dump_partition("Splitting ", Z);
945         dump_list("by list ", g);
946
947         assert(g != NULL);
948
949         /* Remove g from Z. */
950         for (node = g; node != NULL; node = node->next) {
951                 assert(node->part == Z);
952                 list_del(&node->node_list);
953                 ++n;
954         }
955         assert(n < Z->n_leader);
956         Z->n_leader -= n;
957
958         /* Move g to a new partition, Z'. */
959         Z_prime = new_partition(env);
960         max_input = 0;
961         for (node = g; node != NULL; node = node->next) {
962                 list_add_tail(&node->node_list, &Z_prime->Leader);
963                 node->part = Z_prime;
964                 if (node->max_user_input > max_input)
965                         max_input = node->max_user_input;
966         }
967         Z_prime->max_user_inputs = max_input;
968         Z_prime->n_leader        = n;
969
970         check_partition(Z);
971         check_partition(Z_prime);
972
973         /* for now, copy the type info tag, it will be adjusted in split_by(). */
974         Z_prime->type_is_T_or_C = Z->type_is_T_or_C;
975
976         update_worklist(Z, Z_prime, env);
977
978         dump_partition("Now ", Z);
979         dump_partition("Created new ", Z_prime);
980         return Z_prime;
981 }  /* split_no_followers */
982
983 /**
984  * Make the Follower -> Leader transition for a node.
985  *
986  * @param n  the node
987  */
988 static void follower_to_leader(node_t *n)
989 {
990         assert(n->is_follower == 1);
991
992         DB((dbg, LEVEL_2, "%+F make the follower -> leader transition\n", n->node));
993         n->is_follower = 0;
994         move_edges_to_leader(n);
995         list_del(&n->node_list);
996         list_add_tail(&n->node_list, &n->part->Leader);
997         ++n->part->n_leader;
998 }  /* follower_to_leader */
999
1000 /**
1001  * The environment for one race step.
1002  */
1003 typedef struct step_env {
1004         node_t   *initial;    /**< The initial node list. */
1005         node_t   *unwalked;   /**< The unwalked node list. */
1006         node_t   *walked;     /**< The walked node list. */
1007         int      index;       /**< Next index of Follower use_def edge. */
1008         unsigned side;        /**< side number. */
1009 } step_env;
1010
1011 /**
1012  * Return non-zero, if a input is a real follower
1013  *
1014  * @param irn    the node to check
1015  * @param input  number of the input
1016  */
1017 static int is_real_follower(const ir_node *irn, int input)
1018 {
1019         node_t *pred;
1020
1021         switch (get_irn_opcode(irn)) {
1022         case iro_Confirm:
1023                 if (input == 1) {
1024                         /* ignore the Confirm bound input */
1025                         return 0;
1026                 }
1027                 break;
1028         case iro_Mux:
1029                 if (input == 0) {
1030                         /* ignore the Mux sel input */
1031                         return 0;
1032                 }
1033                 break;
1034         case iro_Phi: {
1035                 /* dead inputs are not follower edges */
1036                 ir_node *block = get_nodes_block(irn);
1037                 node_t  *pred  = get_irn_node(get_Block_cfgpred(block, input));
1038
1039                 if (pred->type.tv == tarval_unreachable)
1040                         return 0;
1041                 break;
1042         }
1043         case iro_Sub:
1044         case iro_Shr:
1045         case iro_Shl:
1046         case iro_Shrs:
1047         case iro_Rotl:
1048                 if (input == 1) {
1049                         /* only a Sub x,0 / Shift x,0 might be a follower */
1050                         return 0;
1051                 }
1052                 break;
1053         case iro_Add:
1054         case iro_Or:
1055         case iro_Eor:
1056                 pred = get_irn_node(get_irn_n(irn, input));
1057                 if (is_tarval(pred->type.tv) && tarval_is_null(pred->type.tv))
1058                         return 0;
1059                 break;
1060         case iro_Mul:
1061                 pred = get_irn_node(get_irn_n(irn, input));
1062                 if (is_tarval(pred->type.tv) && tarval_is_one(pred->type.tv))
1063                         return 0;
1064                 break;
1065         case iro_And:
1066                 pred = get_irn_node(get_irn_n(irn, input));
1067                 if (is_tarval(pred->type.tv) && tarval_is_all_one(pred->type.tv))
1068                         return 0;
1069                 break;
1070         default:
1071                 assert(!"opcode not implemented yet");
1072                 break;
1073         }
1074         return 1;
1075 }  /* is_real_follower */
1076
1077 /**
1078  * Do one step in the race.
1079  */
1080 static int step(step_env *env)
1081 {
1082         node_t *n;
1083
1084         if (env->initial != NULL) {
1085                 /* Move node from initial to unwalked */
1086                 n             = env->initial;
1087                 env->initial  = n->race_next;
1088
1089                 n->race_next  = env->unwalked;
1090                 env->unwalked = n;
1091
1092                 return 0;
1093         }
1094
1095         while (env->unwalked != NULL) {
1096                 /* let n be the first node in unwalked */
1097                 n = env->unwalked;
1098                 while (env->index < n->n_followers) {
1099                         const ir_def_use_edge *edge = &n->node->out[1 + env->index];
1100
1101                         /* let m be n.F.def_use[index] */
1102                         node_t *m = get_irn_node(edge->use);
1103
1104                         assert(m->is_follower);
1105                         /*
1106                          * Some inputs, like the get_Confirm_bound are NOT
1107                          * real followers, sort them out.
1108                          */
1109                         if (! is_real_follower(m->node, edge->pos)) {
1110                                 ++env->index;
1111                                 continue;
1112                         }
1113                         ++env->index;
1114
1115                         /* only followers from our partition */
1116                         if (m->part != n->part)
1117                                 continue;
1118
1119                         if ((m->flagged & env->side) == 0) {
1120                                 m->flagged |= env->side;
1121
1122                                 if (m->flagged != 3) {
1123                                         /* visited the first time */
1124                                         /* add m to unwalked not as first node (we might still need to
1125                                            check for more follower node */
1126                                         m->race_next = n->race_next;
1127                                         n->race_next = m;
1128                                         return 0;
1129                                 }
1130                                 /* else already visited by the other side and on the other list */
1131                         }
1132                 }
1133                 /* move n to walked */
1134                 env->unwalked = n->race_next;
1135                 n->race_next  = env->walked;
1136                 env->walked   = n;
1137                 env->index    = 0;
1138         }
1139         return 1;
1140 }  /* step */
1141
1142 /**
1143  * Clear the flags from a list and check for
1144  * nodes that where touched from both sides.
1145  *
1146  * @param list  the list
1147  */
1148 static int clear_flags(node_t *list)
1149 {
1150         int    res = 0;
1151         node_t *n;
1152
1153         for (n = list; n != NULL; n = n->race_next) {
1154                 if (n->flagged == 3) {
1155                         /* we reach a follower from both sides, this will split congruent
1156                          * inputs and make it a leader. */
1157                         follower_to_leader(n);
1158                         res = 1;
1159                 }
1160                 n->flagged = 0;
1161         }
1162         return res;
1163 }  /* clear_flags */
1164
1165 /**
1166  * Split a partition by a local list using the race.
1167  *
1168  * @param pX   pointer to the partition to split, might be changed!
1169  * @param gg   a (non-empty) node list
1170  * @param env  the environment
1171  *
1172  * @return  a new partition containing the nodes of gg
1173  */
1174 static partition_t *split(partition_t **pX, node_t *gg, environment_t *env)
1175 {
1176         partition_t *X = *pX;
1177         partition_t *X_prime;
1178         list_head   tmp;
1179         step_env    senv[2];
1180         node_t      *g, *h, *node, *t;
1181         int         max_input, transitions, winner, shf;
1182         unsigned    n;
1183         DEBUG_ONLY(static int run = 0;)
1184
1185         DB((dbg, LEVEL_2, "Run %d ", run++));
1186         if (list_empty(&X->Follower)) {
1187                 /* if the partition has NO follower, we can use the fast
1188                    splitting algorithm. */
1189                 return split_no_followers(X, gg, env);
1190         }
1191         /* else do the race */
1192
1193         dump_partition("Splitting ", X);
1194         dump_list("by list ", gg);
1195
1196         INIT_LIST_HEAD(&tmp);
1197
1198         /* Remove gg from X.Leader and put into g */
1199         g = NULL;
1200         for (node = gg; node != NULL; node = node->next) {
1201                 assert(node->part == X);
1202                 assert(node->is_follower == 0);
1203
1204                 list_del(&node->node_list);
1205                 list_add_tail(&node->node_list, &tmp);
1206                 node->race_next = g;
1207                 g               = node;
1208         }
1209         /* produce h */
1210         h = NULL;
1211         list_for_each_entry(node_t, node, &X->Leader, node_list) {
1212                 node->race_next = h;
1213                 h               = node;
1214         }
1215         /* restore X.Leader */
1216         list_splice(&tmp, &X->Leader);
1217
1218         senv[0].initial   = g;
1219         senv[0].unwalked  = NULL;
1220         senv[0].walked    = NULL;
1221         senv[0].index     = 0;
1222         senv[0].side      = 1;
1223
1224         senv[1].initial   = h;
1225         senv[1].unwalked  = NULL;
1226         senv[1].walked    = NULL;
1227         senv[1].index     = 0;
1228         senv[1].side      = 2;
1229
1230         /*
1231          * Some informations on the race that are not stated clearly in Click's
1232          * thesis.
1233          * 1) A follower stays on the side that reach him first.
1234          * 2) If the other side reches a follower, if will be converted to
1235          *    a leader. /This must be done after the race is over, else the
1236          *    edges we are iterating on are renumbered./
1237          * 3) /New leader might end up on both sides./
1238          * 4) /If one side ends up with new Leaders, we must ensure that
1239          *    they can split out by opcode, hence we have to put _every_
1240          *    partition with new Leader nodes on the cprop list, as
1241          *    opcode splitting is done by split_by() at the end of
1242          *    constant propagation./
1243          */
1244         for (;;) {
1245                 if (step(&senv[0])) {
1246                         winner = 0;
1247                         break;
1248                 }
1249                 if (step(&senv[1])) {
1250                         winner = 1;
1251                         break;
1252                 }
1253         }
1254         assert(senv[winner].initial == NULL);
1255         assert(senv[winner].unwalked == NULL);
1256
1257         /* clear flags from walked/unwalked */
1258         shf = winner;
1259         transitions  = clear_flags(senv[0].unwalked) << shf;
1260         transitions |= clear_flags(senv[0].walked)   << shf;
1261         shf ^= 1;
1262         transitions |= clear_flags(senv[1].unwalked) << shf;
1263         transitions |= clear_flags(senv[1].walked)   << shf;
1264
1265         dump_race_list("winner ", senv[winner].walked);
1266
1267         /* Move walked_{winner} to a new partition, X'. */
1268         X_prime   = new_partition(env);
1269         max_input = 0;
1270         n         = 0;
1271         for (node = senv[winner].walked; node != NULL; node = node->race_next) {
1272                 list_del(&node->node_list);
1273                 node->part = X_prime;
1274                 if (node->is_follower) {
1275                         list_add_tail(&node->node_list, &X_prime->Follower);
1276                 } else {
1277                         list_add_tail(&node->node_list, &X_prime->Leader);
1278                         ++n;
1279                 }
1280                 if (node->max_user_input > max_input)
1281                         max_input = node->max_user_input;
1282         }
1283         X_prime->n_leader        = n;
1284         X_prime->max_user_inputs = max_input;
1285         X->n_leader             -= X_prime->n_leader;
1286
1287         /* for now, copy the type info tag, it will be adjusted in split_by(). */
1288         X_prime->type_is_T_or_C = X->type_is_T_or_C;
1289
1290         /*
1291          * Even if a follower was not checked by both sides, it might have
1292          * loose its congruence, so we need to check this case for all follower.
1293          */
1294         list_for_each_entry_safe(node_t, node, t, &X_prime->Follower, node_list) {
1295                 if (identity(node) == node) {
1296                         follower_to_leader(node);
1297                         transitions |= 1;
1298                 }
1299         }
1300
1301         check_partition(X);
1302         check_partition(X_prime);
1303
1304         /* X' is the smaller part */
1305         add_to_worklist(X_prime, env);
1306
1307         /*
1308          * If there where follower to leader transitions, ensure that the nodes
1309          * can be split out if necessary.
1310          */
1311         if (transitions & 1) {
1312                 /* place winner partition on the cprop list */
1313                 if (X_prime->on_cprop == 0) {
1314                         X_prime->cprop_next = env->cprop;
1315                         env->cprop          = X_prime;
1316                         X_prime->on_cprop   = 1;
1317                 }
1318         }
1319         if (transitions & 2) {
1320                 /* place other partition on the cprop list */
1321                 if (X->on_cprop == 0) {
1322                         X->cprop_next = env->cprop;
1323                         env->cprop    = X;
1324                         X->on_cprop   = 1;
1325                 }
1326         }
1327
1328         dump_partition("Now ", X);
1329         dump_partition("Created new ", X_prime);
1330
1331         /* we have to ensure that the partition containing g is returned */
1332         if (winner != 0) {
1333                 *pX = X_prime;
1334                 return X;
1335         }
1336
1337         return X_prime;
1338 }  /* split */
1339
1340 /**
1341  * Returns non-zero if the i'th input of a Phi node is live.
1342  *
1343  * @param phi  a Phi-node
1344  * @param i    an input number
1345  *
1346  * @return non-zero if the i'th input of the given Phi node is live
1347  */
1348 static int is_live_input(ir_node *phi, int i)
1349 {
1350         if (i >= 0) {
1351                 ir_node        *block = get_nodes_block(phi);
1352                 ir_node        *pred  = get_Block_cfgpred(block, i);
1353                 lattice_elem_t type   = get_node_type(pred);
1354
1355                 return type.tv != tarval_unreachable;
1356         }
1357         /* else it's the control input, always live */
1358         return 1;
1359 }  /* is_live_input */
1360
1361 /**
1362  * Return non-zero if a type is a constant.
1363  */
1364 static int is_constant_type(lattice_elem_t type)
1365 {
1366         if (type.tv != tarval_bottom && type.tv != tarval_top)
1367                 return 1;
1368         return 0;
1369 }  /* is_constant_type */
1370
1371 /**
1372  * Check whether a type is neither Top or a constant.
1373  * Note: U is handled like Top here, R is a constant.
1374  *
1375  * @param type  the type to check
1376  */
1377 static int type_is_neither_top_nor_const(const lattice_elem_t type)
1378 {
1379         if (is_tarval(type.tv)) {
1380                 if (type.tv == tarval_top)
1381                         return 0;
1382                 if (tarval_is_constant(type.tv))
1383                         return 0;
1384         } else {
1385                 /* is a symconst */
1386                 return 0;
1387         }
1388         return 1;
1389 }  /* type_is_neither_top_nor_const */
1390
1391 /**
1392  * Collect nodes to the touched list.
1393  *
1394  * @param list  the list which contains the nodes that must be evaluated
1395  * @param idx   the index of the def_use edge to evaluate
1396  * @param env   the environment
1397  */
1398 static void collect_touched(list_head *list, int idx, environment_t *env)
1399 {
1400         node_t  *x, *y;
1401         int     end_idx = env->end_idx;
1402
1403         list_for_each_entry(node_t, x, list, node_list) {
1404                 int num_edges;
1405
1406                 if (idx == -1) {
1407                         /* leader edges start AFTER follower edges */
1408                         x->next_edge = x->n_followers + 1;
1409                 }
1410                 num_edges = get_irn_n_outs(x->node);
1411
1412                 /* for all edges in x.L.def_use_{idx} */
1413                 while (x->next_edge <= num_edges) {
1414                         const ir_def_use_edge *edge = &x->node->out[x->next_edge];
1415                         ir_node               *succ;
1416
1417                         /* check if we have necessary edges */
1418                         if (edge->pos > idx)
1419                                 break;
1420
1421                         ++x->next_edge;
1422
1423                         succ = edge->use;
1424
1425                         /* only non-commutative nodes */
1426                         if (env->commutative &&
1427                             (idx == 0 || idx == 1) && is_op_commutative(get_irn_op(succ)))
1428                                 continue;
1429
1430                         /* ignore the "control input" for non-pinned nodes
1431                         if we are running in GCSE mode */
1432                         if (idx < end_idx && get_irn_pinned(succ) != op_pin_state_pinned)
1433                                 continue;
1434
1435                         y = get_irn_node(succ);
1436                         assert(get_irn_n(succ, idx) == x->node);
1437
1438                         /* ignore block edges touching followers */
1439                         if (idx == -1 && y->is_follower)
1440                                 continue;
1441
1442                         if (is_constant_type(y->type)) {
1443                                 unsigned  code = get_irn_opcode(succ);
1444                                 if (code == iro_Sub || code == iro_Cmp)
1445                                         add_to_cprop(y, env);
1446                         }
1447
1448                         /* Partitions of constants should not be split simply because their Nodes have unequal
1449                            functions or incongruent inputs. */
1450                         if (type_is_neither_top_nor_const(y->type) &&
1451                                 (! is_Phi(y->node) || is_live_input(y->node, idx))) {
1452                                         add_to_touched(y, env);
1453                         }
1454                 }
1455         }
1456 }  /* collect_touched */
1457
1458 /**
1459  * Collect commutative nodes to the touched list.
1460  *
1461  * @param list  the list which contains the nodes that must be evaluated
1462  * @param env   the environment
1463  */
1464 static void collect_commutative_touched(list_head *list, environment_t *env)
1465 {
1466         node_t  *x, *y;
1467
1468         list_for_each_entry(node_t, x, list, node_list) {
1469                 int num_edges;
1470
1471                 num_edges = get_irn_n_outs(x->node);
1472
1473                 x->next_edge = x->n_followers + 1;
1474
1475                 /* for all edges in x.L.def_use_{idx} */
1476                 while (x->next_edge <= num_edges) {
1477                         const ir_def_use_edge *edge = &x->node->out[x->next_edge];
1478                         ir_node               *succ;
1479
1480                         /* check if we have necessary edges */
1481                         if (edge->pos > 1)
1482                                 break;
1483
1484                         ++x->next_edge;
1485                         if (edge->pos < 0)
1486                                 continue;
1487
1488                         succ = edge->use;
1489
1490                         /* only commutative nodes */
1491                         if (!is_op_commutative(get_irn_op(succ)))
1492                                 continue;
1493
1494                         y = get_irn_node(succ);
1495                         if (is_constant_type(y->type)) {
1496                                 unsigned code = get_irn_opcode(succ);
1497                                 if (code == iro_Eor)
1498                                         add_to_cprop(y, env);
1499                         }
1500
1501                         /* Partitions of constants should not be split simply because their Nodes have unequal
1502                            functions or incongruent inputs. */
1503                         if (type_is_neither_top_nor_const(y->type)) {
1504                                 add_to_touched(y, env);
1505                         }
1506                 }
1507         }
1508 }  /* collect_commutative_touched */
1509
1510 /**
1511  * Split the partitions if caused by the first entry on the worklist.
1512  *
1513  * @param env  the environment
1514  */
1515 static void cause_splits(environment_t *env)
1516 {
1517         partition_t *X, *Z, *N;
1518         int         idx;
1519
1520         /* remove the first partition from the worklist */
1521         X = env->worklist;
1522         env->worklist  = X->wl_next;
1523         X->on_worklist = 0;
1524
1525         dump_partition("Cause_split: ", X);
1526
1527         if (env->commutative) {
1528                 /* handle commutative nodes first */
1529
1530                 /* empty the touched set: already done, just clear the list */
1531                 env->touched = NULL;
1532
1533                 collect_commutative_touched(&X->Leader, env);
1534                 collect_commutative_touched(&X->Follower, env);
1535
1536                 for (Z = env->touched; Z != NULL; Z = N) {
1537                         node_t   *e, *n;
1538                         node_t   *touched     = Z->touched;
1539                         node_t   *touched_aa  = NULL;
1540                         node_t   *touched_ab  = NULL;
1541                         unsigned n_touched_aa = 0;
1542                         unsigned n_touched_ab = 0;
1543
1544                         assert(Z->touched != NULL);
1545
1546                         /* beware, split might change Z */
1547                         N = Z->touched_next;
1548
1549                         /* remove it from the touched set */
1550                         Z->on_touched = 0;
1551
1552                         /* Empty local Z.touched. */
1553                         for (e = touched; e != NULL; e = n) {
1554                                 node_t *left  = get_irn_node(get_irn_n(e->node, 0));
1555                                 node_t *right = get_irn_node(get_irn_n(e->node, 1));
1556
1557                                 assert(e->is_follower == 0);
1558                                 e->on_touched = 0;
1559                                 n = e->next;
1560
1561                                 /*
1562                                  * Note: op(a, a) is NOT congruent to op(a, b).
1563                                  * So, we must split the touched list.
1564                                  */
1565                                 if (left->part == right->part) {
1566                                         e->next = touched_aa;
1567                                         touched_aa = e;
1568                                         ++n_touched_aa;
1569                                 } else {
1570                                         e->next = touched_ab;
1571                                         touched_ab = e;
1572                                         ++n_touched_ab;
1573                                 }
1574                         }
1575                         assert(n_touched_aa + n_touched_ab == Z->n_touched);
1576                         Z->touched   = NULL;
1577                         Z->n_touched = 0;
1578
1579                         if (0 < n_touched_aa && n_touched_aa < Z->n_leader) {
1580                                 partition_t *Z_prime = Z;
1581                                 DB((dbg, LEVEL_2, "Split part%d by touched_aa\n", Z_prime->nr));
1582                                 split(&Z_prime, touched_aa, env);
1583                         } else
1584                                 assert(n_touched_aa <= Z->n_leader);
1585
1586                         if (0 < n_touched_ab && n_touched_ab < Z->n_leader) {
1587                                 partition_t *Z_prime = Z;
1588                                 DB((dbg, LEVEL_2, "Split part%d by touched_ab\n", Z_prime->nr));
1589                                 split(&Z_prime, touched_ab, env);
1590                         } else
1591                                 assert(n_touched_ab <= Z->n_leader);
1592                 }
1593         }
1594
1595         /* combine temporary leader and follower list */
1596         for (idx = -1; idx <= X->max_user_inputs; ++idx) {
1597                 /* empty the touched set: already done, just clear the list */
1598                 env->touched = NULL;
1599
1600                 collect_touched(&X->Leader, idx, env);
1601                 collect_touched(&X->Follower, idx, env);
1602
1603                 for (Z = env->touched; Z != NULL; Z = N) {
1604                         node_t   *e;
1605                         node_t   *touched  = Z->touched;
1606                         unsigned n_touched = Z->n_touched;
1607
1608                         assert(Z->touched != NULL);
1609
1610                         /* beware, split might change Z */
1611                         N = Z->touched_next;
1612
1613                         /* remove it from the touched set */
1614                         Z->on_touched = 0;
1615
1616                         /* Empty local Z.touched. */
1617                         for (e = touched; e != NULL; e = e->next) {
1618                                 assert(e->is_follower == 0);
1619                                 e->on_touched = 0;
1620                         }
1621                         Z->touched   = NULL;
1622                         Z->n_touched = 0;
1623
1624                         if (0 < n_touched && n_touched < Z->n_leader) {
1625                                 DB((dbg, LEVEL_2, "Split part%d by touched\n", Z->nr));
1626                                 split(&Z, touched, env);
1627                         } else
1628                                 assert(n_touched <= Z->n_leader);
1629                 }
1630         }
1631 }  /* cause_splits */
1632
1633 /**
1634  * Implements split_by_what(): Split a partition by characteristics given
1635  * by the what function.
1636  *
1637  * @param X     the partition to split
1638  * @param What  a function returning an Id for every node of the partition X
1639  * @param P     a list to store the result partitions
1640  * @param env   the environment
1641  *
1642  * @return *P
1643  */
1644 static partition_t *split_by_what(partition_t *X, what_func What,
1645                                   partition_t **P, environment_t *env)
1646 {
1647         node_t          *x, *S;
1648         listmap_t       map;
1649         listmap_entry_t *iter;
1650         partition_t     *R;
1651
1652         /* Let map be an empty mapping from the range of What to (local) list of Nodes. */
1653         listmap_init(&map);
1654         list_for_each_entry(node_t, x, &X->Leader, node_list) {
1655                 void            *id = What(x, env);
1656                 listmap_entry_t *entry;
1657
1658                 if (id == NULL) {
1659                         /* input not allowed, ignore */
1660                         continue;
1661                 }
1662                 /* Add x to map[What(x)]. */
1663                 entry = listmap_find(&map, id);
1664                 x->next     = entry->list;
1665                 entry->list = x;
1666         }
1667         /* Let P be a set of Partitions. */
1668
1669         /* for all sets S except one in the range of map do */
1670         for (iter = map.values; iter != NULL; iter = iter->next) {
1671                 if (iter->next == NULL) {
1672                         /* this is the last entry, ignore */
1673                         break;
1674                 }
1675                 S = iter->list;
1676
1677                 /* Add SPLIT( X, S ) to P. */
1678                 DB((dbg, LEVEL_2, "Split part%d by WHAT = %s\n", X->nr, what_reason));
1679                 R = split(&X, S, env);
1680                 R->split_next = *P;
1681                 *P            = R;
1682         }
1683         /* Add X to P. */
1684         X->split_next = *P;
1685         *P            = X;
1686
1687         listmap_term(&map);
1688         return *P;
1689 }  /* split_by_what */
1690
1691 /** lambda n.(n.type) */
1692 static void *lambda_type(const node_t *node, environment_t *env)
1693 {
1694         (void)env;
1695         return node->type.tv;
1696 }  /* lambda_type */
1697
1698 /** lambda n.(n.opcode) */
1699 static void *lambda_opcode(const node_t *node, environment_t *env)
1700 {
1701         opcode_key_t key, *entry;
1702
1703         key.irn = node->node;
1704
1705         entry = (opcode_key_t*)set_insert(env->opcode2id_map, &key, sizeof(key), opcode_hash(&key));
1706         return entry;
1707 }  /* lambda_opcode */
1708
1709 /** lambda n.(n[i].partition) */
1710 static void *lambda_partition(const node_t *node, environment_t *env)
1711 {
1712         ir_node *skipped = skip_Proj(node->node);
1713         ir_node *pred;
1714         node_t  *p;
1715         int     i = env->lambda_input;
1716
1717         if (i >= get_irn_arity(node->node)) {
1718                 /*
1719                  * We are outside the allowed range: This can happen even
1720                  * if we have split by opcode first: doing so might move Followers
1721                  * to Leaders and those will have a different opcode!
1722                  * Note that in this case the partition is on the cprop list and will be
1723                  * split again.
1724                  */
1725                 return NULL;
1726         }
1727
1728         /* ignore the "control input" for non-pinned nodes
1729            if we are running in GCSE mode */
1730         if (i < env->end_idx && get_irn_pinned(skipped) != op_pin_state_pinned)
1731                 return NULL;
1732
1733         pred = i == -1 ? get_irn_n(skipped, i) : get_irn_n(node->node, i);
1734         p    = get_irn_node(pred);
1735         return p->part;
1736 }  /* lambda_partition */
1737
1738 /** lambda n.(n[i].partition) for commutative nodes */
1739 static void *lambda_commutative_partition(const node_t *node, environment_t *env)
1740 {
1741         ir_node     *irn     = node->node;
1742         ir_node     *skipped = skip_Proj(irn);
1743         ir_node     *pred, *left, *right;
1744         node_t      *p;
1745         partition_t *pl, *pr;
1746         int         i = env->lambda_input;
1747
1748         if (i >= get_irn_arity(node->node)) {
1749                 /*
1750                  * We are outside the allowed range: This can happen even
1751                  * if we have split by opcode first: doing so might move Followers
1752                  * to Leaders and those will have a different opcode!
1753                  * Note that in this case the partition is on the cprop list and will be
1754                  * split again.
1755                  */
1756                 return NULL;
1757         }
1758
1759         /* ignore the "control input" for non-pinned nodes
1760            if we are running in GCSE mode */
1761         if (i < env->end_idx && get_irn_pinned(skipped) != op_pin_state_pinned)
1762                 return NULL;
1763
1764         if (i == -1) {
1765                 pred = get_irn_n(skipped, i);
1766                 p    = get_irn_node(pred);
1767                 return p->part;
1768         }
1769
1770         if (is_op_commutative(get_irn_op(irn))) {
1771                 /* normalize partition order by returning the "smaller" on input 0,
1772                    the "bigger" on input 1. */
1773                 left  = get_binop_left(irn);
1774                 pl    = get_irn_node(left)->part;
1775                 right = get_binop_right(irn);
1776                 pr    = get_irn_node(right)->part;
1777
1778                 if (i == 0)
1779                         return pl < pr ? pl : pr;
1780                 else
1781                 return pl > pr ? pl : pr;
1782         } else {
1783                 /* a not split out Follower */
1784                 pred = get_irn_n(irn, i);
1785                 p    = get_irn_node(pred);
1786
1787                 return p->part;
1788         }
1789 }  /* lambda_commutative_partition */
1790
1791 /**
1792  * Returns true if a type is a constant (and NOT Top
1793  * or Bottom).
1794  */
1795 static int is_con(const lattice_elem_t type)
1796 {
1797         /* be conservative */
1798         if (is_tarval(type.tv))
1799                 return tarval_is_constant(type.tv);
1800         return is_entity(type.sym.entity_p);
1801 }  /* is_con */
1802
1803 /**
1804  * Implements split_by().
1805  *
1806  * @param X    the partition to split
1807  * @param env  the environment
1808  */
1809 static void split_by(partition_t *X, environment_t *env)
1810 {
1811         partition_t *I, *P = NULL;
1812         int         input;
1813
1814         dump_partition("split_by", X);
1815
1816         if (X->n_leader == 1) {
1817                 /* we have only one leader, no need to split, just check its type */
1818                 node_t *x = get_first_node(X);
1819                 X->type_is_T_or_C = x->type.tv == tarval_top || is_con(x->type);
1820                 return;
1821         }
1822
1823         DEBUG_ONLY(what_reason = "lambda n.(n.type)";)
1824         P = split_by_what(X, lambda_type, &P, env);
1825         dump_split_list(P);
1826
1827         /* adjust the type tags, we have split partitions by type */
1828         for (I = P; I != NULL; I = I->split_next) {
1829                 node_t *x = get_first_node(I);
1830                 I->type_is_T_or_C = x->type.tv == tarval_top || is_con(x->type);
1831         }
1832
1833         do {
1834                 partition_t *Y = P;
1835
1836                 P = P->split_next;
1837                 if (Y->n_leader > 1) {
1838                         /* we do not want split the TOP or constant partitions */
1839                         if (! Y->type_is_T_or_C) {
1840                                 partition_t *Q = NULL;
1841
1842                                 DEBUG_ONLY(what_reason = "lambda n.(n.opcode)";)
1843                                 Q = split_by_what(Y, lambda_opcode, &Q, env);
1844                                 dump_split_list(Q);
1845
1846                                 do {
1847                                         partition_t *Z = Q;
1848
1849                                         Q = Q->split_next;
1850                                         if (Z->n_leader > 1) {
1851                                                 const node_t *first = get_first_node(Z);
1852                                                 int          arity  = get_irn_arity(first->node);
1853                                                 partition_t  *R, *S;
1854                                                 what_func    what = lambda_partition;
1855                                                 DEBUG_ONLY(char buf[64];)
1856
1857                                                 if (env->commutative && is_op_commutative(get_irn_op(first->node)))
1858                                                         what = lambda_commutative_partition;
1859
1860                                                 /*
1861                                                  * BEWARE: during splitting by input 2 for instance we might
1862                                                  * create new partitions which are different by input 1, so collect
1863                                                  * them and split further.
1864                                                  */
1865                                                 Z->split_next = NULL;
1866                                                 R             = Z;
1867                                                 S             = NULL;
1868                                                 for (input = arity - 1; input >= -1; --input) {
1869                                                         do {
1870                                                                 partition_t *Z_prime = R;
1871
1872                                                                 R = R->split_next;
1873                                                                 if (Z_prime->n_leader > 1) {
1874                                                                         env->lambda_input = input;
1875                                                                         DEBUG_ONLY(snprintf(buf, sizeof(buf), "lambda n.(n[%d].partition)", input);)
1876                                                                         DEBUG_ONLY(what_reason = buf;)
1877                                                                         S = split_by_what(Z_prime, what, &S, env);
1878                                                                         dump_split_list(S);
1879                                                                 } else {
1880                                                                         Z_prime->split_next = S;
1881                                                                         S                   = Z_prime;
1882                                                                 }
1883                                                         } while (R != NULL);
1884                                                         R = S;
1885                                                         S = NULL;
1886                                                 }
1887                                         }
1888                                 } while (Q != NULL);
1889                         }
1890                 }
1891         } while (P != NULL);
1892 }  /* split_by */
1893
1894 /**
1895  * (Re-)compute the type for a given node.
1896  *
1897  * @param node  the node
1898  */
1899 static void default_compute(node_t *node)
1900 {
1901         int     i;
1902         ir_node *irn = node->node;
1903
1904         /* if any of the data inputs have type top, the result is type top */
1905         for (i = get_irn_arity(irn) - 1; i >= 0; --i) {
1906                 ir_node *pred = get_irn_n(irn, i);
1907                 node_t  *p    = get_irn_node(pred);
1908
1909                 if (p->type.tv == tarval_top) {
1910                         node->type.tv = tarval_top;
1911                         return;
1912                 }
1913         }
1914
1915         if (get_irn_mode(node->node) == mode_X)
1916                 node->type.tv = tarval_reachable;
1917         else
1918                 node->type.tv = computed_value(irn);
1919 }  /* default_compute */
1920
1921 /**
1922  * (Re-)compute the type for a Block node.
1923  *
1924  * @param node  the node
1925  */
1926 static void compute_Block(node_t *node)
1927 {
1928         int     i;
1929         ir_node *block = node->node;
1930
1931         if (block == get_irg_start_block(current_ir_graph) || has_Block_entity(block)) {
1932                 /* start block and labelled blocks are always reachable */
1933                 node->type.tv = tarval_reachable;
1934                 return;
1935         }
1936
1937         for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
1938                 node_t *pred = get_irn_node(get_Block_cfgpred(block, i));
1939
1940                 if (pred->type.tv == tarval_reachable) {
1941                         /* A block is reachable, if at least of predecessor is reachable. */
1942                         node->type.tv = tarval_reachable;
1943                         return;
1944                 }
1945         }
1946         node->type.tv = tarval_top;
1947 }  /* compute_Block */
1948
1949 /**
1950  * (Re-)compute the type for a Bad node.
1951  *
1952  * @param node  the node
1953  */
1954 static void compute_Bad(node_t *node)
1955 {
1956         /* Bad nodes ALWAYS compute Top */
1957         node->type.tv = tarval_top;
1958 }  /* compute_Bad */
1959
1960 /**
1961  * (Re-)compute the type for an Unknown node.
1962  *
1963  * @param node  the node
1964  */
1965 static void compute_Unknown(node_t *node)
1966 {
1967         /* While Unknown nodes should compute Top this is dangerous:
1968          * a Top input to a Cond would lead to BOTH control flows unreachable.
1969          * While this is correct in the given semantics, it would destroy the Firm
1970          * graph.
1971          *
1972          * It would be safe to compute Top IF it can be assured, that only Cmp
1973          * nodes are inputs to Conds. We check that first.
1974          * This is the way Frontends typically build Firm, but some optimizations
1975          * (jump threading for instance) might replace them by Phib's...
1976          */
1977         node->type.tv = tarval_UNKNOWN;
1978 }  /* compute_Unknown */
1979
1980 /**
1981  * (Re-)compute the type for a Jmp node.
1982  *
1983  * @param node  the node
1984  */
1985 static void compute_Jmp(node_t *node)
1986 {
1987         node_t *block = get_irn_node(get_nodes_block(node->node));
1988
1989         node->type = block->type;
1990 }  /* compute_Jmp */
1991
1992 /**
1993  * (Re-)compute the type for the Return node.
1994  *
1995  * @param node  the node
1996  */
1997 static void compute_Return(node_t *node)
1998 {
1999         /* The Return node is NOT dead if it is in a reachable block.
2000          * This is already checked in compute(). so we can return
2001          * Reachable here. */
2002         node->type.tv = tarval_reachable;
2003 }  /* compute_Return */
2004
2005 /**
2006  * (Re-)compute the type for the End node.
2007  *
2008  * @param node  the node
2009  */
2010 static void compute_End(node_t *node)
2011 {
2012         /* the End node is NOT dead of course */
2013         node->type.tv = tarval_reachable;
2014 }  /* compute_End */
2015
2016 /**
2017  * (Re-)compute the type for a Call.
2018  *
2019  * @param node  the node
2020  */
2021 static void compute_Call(node_t *node)
2022 {
2023         /*
2024          * A Call computes always bottom, even if it has Unknown
2025          * predecessors.
2026          */
2027         node->type.tv = tarval_bottom;
2028 }  /* compute_Call */
2029
2030 /**
2031  * (Re-)compute the type for a SymConst node.
2032  *
2033  * @param node  the node
2034  */
2035 static void compute_SymConst(node_t *node)
2036 {
2037         ir_node *irn = node->node;
2038         node_t  *block = get_irn_node(get_nodes_block(irn));
2039
2040         if (block->type.tv == tarval_unreachable) {
2041                 node->type.tv = tarval_top;
2042                 return;
2043         }
2044         switch (get_SymConst_kind(irn)) {
2045         case symconst_addr_ent:
2046                 node->type.sym = get_SymConst_symbol(irn);
2047                 break;
2048         default:
2049                 node->type.tv = computed_value(irn);
2050         }
2051 }  /* compute_SymConst */
2052
2053 /**
2054  * (Re-)compute the type for a Phi node.
2055  *
2056  * @param node  the node
2057  */
2058 static void compute_Phi(node_t *node)
2059 {
2060         int            i;
2061         ir_node        *phi = node->node;
2062         lattice_elem_t type;
2063
2064         /* if a Phi is in a unreachable block, its type is TOP */
2065         node_t *block = get_irn_node(get_nodes_block(phi));
2066
2067         if (block->type.tv == tarval_unreachable) {
2068                 node->type.tv = tarval_top;
2069                 return;
2070         }
2071
2072         /* Phi implements the Meet operation */
2073         type.tv = tarval_top;
2074         for (i = get_Phi_n_preds(phi) - 1; i >= 0; --i) {
2075                 node_t *pred   = get_irn_node(get_Phi_pred(phi, i));
2076                 node_t *pred_X = get_irn_node(get_Block_cfgpred(block->node, i));
2077
2078                 if (pred_X->type.tv == tarval_unreachable || pred->type.tv == tarval_top) {
2079                         /* ignore TOP inputs: We must check here for unreachable blocks,
2080                            because Firm constants live in the Start Block are NEVER Top.
2081                            Else, a Phi (1,2) will produce Bottom, even if the 2 for instance
2082                            comes from a unreachable input. */
2083                         continue;
2084                 }
2085                 if (pred->type.tv == tarval_bottom) {
2086                         node->type.tv = tarval_bottom;
2087                         return;
2088                 } else if (type.tv == tarval_top) {
2089                         /* first constant found */
2090                         type = pred->type;
2091                 } else if (type.tv != pred->type.tv) {
2092                         /* different constants or tarval_bottom */
2093                         node->type.tv = tarval_bottom;
2094                         return;
2095                 }
2096                 /* else nothing, constants are the same */
2097         }
2098         node->type = type;
2099 }  /* compute_Phi */
2100
2101 /**
2102  * (Re-)compute the type for an Add. Special case: one nodes is a Zero Const.
2103  *
2104  * @param node  the node
2105  */
2106 static void compute_Add(node_t *node)
2107 {
2108         ir_node        *sub = node->node;
2109         node_t         *l   = get_irn_node(get_Add_left(sub));
2110         node_t         *r   = get_irn_node(get_Add_right(sub));
2111         lattice_elem_t a    = l->type;
2112         lattice_elem_t b    = r->type;
2113         ir_mode        *mode;
2114
2115         if (a.tv == tarval_top || b.tv == tarval_top) {
2116                 node->type.tv = tarval_top;
2117         } else if (a.tv == tarval_bottom || b.tv == tarval_bottom) {
2118                 node->type.tv = tarval_bottom;
2119         } else {
2120                 /* x + 0 = 0 + x = x, but beware of floating point +0 + -0, so we
2121                    must call tarval_add() first to handle this case! */
2122                 if (is_tarval(a.tv)) {
2123                         if (is_tarval(b.tv)) {
2124                                 node->type.tv = tarval_add(a.tv, b.tv);
2125                                 return;
2126                         }
2127                         mode = get_tarval_mode(a.tv);
2128                         if (a.tv == get_mode_null(mode)) {
2129                                 node->type = b;
2130                                 return;
2131                         }
2132                 } else if (is_tarval(b.tv)) {
2133                         mode = get_tarval_mode(b.tv);
2134                         if (b.tv == get_mode_null(mode)) {
2135                                 node->type = a;
2136                                 return;
2137                         }
2138                 }
2139                 node->type.tv = tarval_bottom;
2140         }
2141 }  /* compute_Add */
2142
2143 /**
2144  * (Re-)compute the type for a Sub. Special case: both nodes are congruent.
2145  *
2146  * @param node  the node
2147  */
2148 static void compute_Sub(node_t *node)
2149 {
2150         ir_node        *sub = node->node;
2151         node_t         *l   = get_irn_node(get_Sub_left(sub));
2152         node_t         *r   = get_irn_node(get_Sub_right(sub));
2153         lattice_elem_t a    = l->type;
2154         lattice_elem_t b    = r->type;
2155         ir_tarval      *tv;
2156
2157         if (a.tv == tarval_top || b.tv == tarval_top) {
2158                 node->type.tv = tarval_top;
2159         } else if (is_con(a) && is_con(b)) {
2160                 if (is_tarval(a.tv) && is_tarval(b.tv)) {
2161                         node->type.tv = tarval_sub(a.tv, b.tv, get_irn_mode(sub));
2162                 } else if (is_tarval(a.tv) && tarval_is_null(a.tv)) {
2163                         node->type = b;
2164                 } else if (is_tarval(b.tv) && tarval_is_null(b.tv)) {
2165                         node->type = a;
2166                 } else {
2167                         node->type.tv = tarval_bottom;
2168                 }
2169         } else if (r->part == l->part &&
2170                    (!mode_is_float(get_irn_mode(l->node)))) {
2171                 /*
2172                  * BEWARE: a - a is NOT always 0 for floating Point values, as
2173                  * NaN op NaN = NaN, so we must check this here.
2174                  */
2175                 ir_mode *mode = get_irn_mode(sub);
2176                 tv = get_mode_null(mode);
2177
2178                 /* if the node was ONCE evaluated by all constants, but now
2179                    this breaks AND we get from the argument partitions a different
2180                    result, switch to bottom.
2181                    This happens because initially all nodes are in the same partition ... */
2182                 if (node->type.tv != tv)
2183                         tv = tarval_bottom;
2184                 node->type.tv = tv;
2185         } else {
2186                 node->type.tv = tarval_bottom;
2187         }
2188 }  /* compute_Sub */
2189
2190 /**
2191  * (Re-)compute the type for an Eor. Special case: both nodes are congruent.
2192  *
2193  * @param node  the node
2194  */
2195 static void compute_Eor(node_t *node)
2196 {
2197         ir_node        *eor = node->node;
2198         node_t         *l   = get_irn_node(get_Eor_left(eor));
2199         node_t         *r   = get_irn_node(get_Eor_right(eor));
2200         lattice_elem_t a    = l->type;
2201         lattice_elem_t b    = r->type;
2202         ir_tarval      *tv;
2203
2204         if (a.tv == tarval_top || b.tv == tarval_top) {
2205                 node->type.tv = tarval_top;
2206         } else if (is_con(a) && is_con(b)) {
2207                 if (is_tarval(a.tv) && is_tarval(b.tv)) {
2208                         node->type.tv = tarval_eor(a.tv, b.tv);
2209                 } else if (is_tarval(a.tv) && tarval_is_null(a.tv)) {
2210                         node->type = b;
2211                 } else if (is_tarval(b.tv) && tarval_is_null(b.tv)) {
2212                         node->type = a;
2213                 } else {
2214                         node->type.tv = tarval_bottom;
2215                 }
2216         } else if (r->part == l->part) {
2217                 ir_mode *mode = get_irn_mode(eor);
2218                 tv = get_mode_null(mode);
2219
2220                 /* if the node was ONCE evaluated by all constants, but now
2221                    this breaks AND we get from the argument partitions a different
2222                    result, switch to bottom.
2223                    This happens because initially all nodes are in the same partition ... */
2224                 if (node->type.tv != tv)
2225                         tv = tarval_bottom;
2226                 node->type.tv = tv;
2227         } else {
2228                 node->type.tv = tarval_bottom;
2229         }
2230 }  /* compute_Eor */
2231
2232 /**
2233  * (Re-)compute the type for Cmp.
2234  *
2235  * @param node  the node
2236  */
2237 static void compute_Cmp(node_t *node)
2238 {
2239         ir_node        *cmp     = node->node;
2240         node_t         *l       = get_irn_node(get_Cmp_left(cmp));
2241         node_t         *r       = get_irn_node(get_Cmp_right(cmp));
2242         lattice_elem_t a        = l->type;
2243         lattice_elem_t b        = r->type;
2244         ir_relation    relation = get_Cmp_relation(cmp);
2245         ir_tarval      *tv;
2246
2247         if (a.tv == tarval_top || b.tv == tarval_top) {
2248                 node->type.tv = tarval_undefined;
2249         } else if (is_con(a) && is_con(b)) {
2250                 default_compute(node);
2251
2252         /*
2253          * BEWARE: a == a is NOT always True for floating Point values, as
2254          * NaN != NaN is defined, so we must check this here.
2255          * (while for some pnc we could still optimize we have to stay
2256          *  consistent with compute_Cmp, so don't do anything for floats)
2257          */
2258         } else if (r->part == l->part && !mode_is_float(get_irn_mode(l->node))) {
2259                 tv = relation & ir_relation_equal ? tarval_b_true : tarval_b_false;
2260
2261                 /* if the node was ONCE evaluated to a constant, but now
2262                    this breaks AND we get from the argument partitions a different
2263                    result, ensure monotony by fall to bottom.
2264                    This happens because initially all nodes are in the same partition ... */
2265                 if (node->type.tv != tv && is_constant_type(node->type))
2266                         tv = tarval_bottom;
2267                 node->type.tv = tv;
2268         } else {
2269                 node->type.tv = tarval_bottom;
2270         }
2271 }
2272
2273 /**
2274  * (Re-)compute the type for a Proj(Cond).
2275  *
2276  * @param node  the node
2277  * @param cond  the predecessor Cond node
2278  */
2279 static void compute_Proj_Cond(node_t *node, ir_node *cond)
2280 {
2281         ir_node *proj     = node->node;
2282         long    pnc       = get_Proj_proj(proj);
2283         ir_node *sel      = get_Cond_selector(cond);
2284         node_t  *selector = get_irn_node(sel);
2285
2286         /*
2287          * Note: it is crucial for the monotony that the Proj(Cond)
2288          * are evaluates after all predecessors of the Cond selector are
2289          * processed.
2290          * Example
2291          *
2292          * if (x != 0)
2293          *
2294          * Due to the fact that 0 is a const, the Cmp gets immediately
2295          * on the cprop list. It will be evaluated before x is evaluated,
2296          * might leaving x as Top. When later x is evaluated, the Cmp
2297          * might change its value.
2298          * BUT if the Cond is evaluated before this happens, Proj(Cond, FALSE)
2299          * gets R, and later changed to F if Cmp is evaluated to True!
2300          *
2301          * We prevent this by putting Conds in an extra cprop_X queue, which
2302          * gets evaluated after the cprop queue is empty.
2303          *
2304          * Note that this even happens with Click's original algorithm, if
2305          * Cmp(x, 0) is evaluated to True first and later changed to False
2306          * if x was Top first and later changed to a Const ...
2307          * It is unclear how Click solved that problem ...
2308          *
2309          * However, in rare cases even this does not help, if a Top reaches
2310          * a compare  through a Phi, than Proj(Cond) is evaluated changing
2311          * the type of the Phi to something other.
2312          * So, we take the last resort and bind the type to R once
2313          * it is calculated.
2314          *
2315          * (This might be even the way Click works around the whole problem).
2316          *
2317          * Finally, we may miss some optimization possibilities due to this:
2318          *
2319          * x = phi(Top, y)
2320          * if (x == 0)
2321          *
2322          * If Top reaches the if first, than we decide for != here.
2323          * If y later is evaluated to 0, we cannot revert this decision
2324          * and must live with both outputs enabled. If this happens,
2325          * we get an unresolved if (true) in the code ...
2326          *
2327          * In Click's version where this decision is done at the Cmp,
2328          * the Cmp is NOT optimized away than (if y evaluated to 1
2329          * for instance) and we get a if (1 == 0) here ...
2330          *
2331          * Both solutions are suboptimal.
2332          * At least, we could easily detect this problem and run
2333          * cf_opt() (or even combo) again :-(
2334          */
2335         if (node->type.tv == tarval_reachable)
2336                 return;
2337
2338         if (get_irn_mode(sel) == mode_b) {
2339                 /* an IF */
2340                 if (pnc == pn_Cond_true) {
2341                         if (selector->type.tv == tarval_b_false) {
2342                                 node->type.tv = tarval_unreachable;
2343                         } else if (selector->type.tv == tarval_b_true) {
2344                                 node->type.tv = tarval_reachable;
2345                         } else if (selector->type.tv == tarval_bottom) {
2346                                 node->type.tv = tarval_reachable;
2347                         } else {
2348                                 assert(selector->type.tv == tarval_top);
2349                                 if (tarval_UNKNOWN == tarval_top) {
2350                                         /* any condition based on Top is "!=" */
2351                                         node->type.tv = tarval_unreachable;
2352                                 } else {
2353                                         node->type.tv = tarval_unreachable;
2354                                 }
2355                         }
2356                 } else {
2357                         assert(pnc == pn_Cond_false);
2358
2359                         if (selector->type.tv == tarval_b_false) {
2360                                 node->type.tv = tarval_reachable;
2361                         } else if (selector->type.tv == tarval_b_true) {
2362                                 node->type.tv = tarval_unreachable;
2363                         } else if (selector->type.tv == tarval_bottom) {
2364                                 node->type.tv = tarval_reachable;
2365                         } else {
2366                                 assert(selector->type.tv == tarval_top);
2367                                 if (tarval_UNKNOWN == tarval_top) {
2368                                         /* any condition based on Top is "!=" */
2369                                         node->type.tv = tarval_reachable;
2370                                 } else {
2371                                         node->type.tv = tarval_unreachable;
2372                                 }
2373                         }
2374                 }
2375         } else {
2376                 /* an SWITCH */
2377                 if (selector->type.tv == tarval_bottom) {
2378                         node->type.tv = tarval_reachable;
2379                 } else if (selector->type.tv == tarval_top) {
2380                         if (tarval_UNKNOWN == tarval_top &&
2381                             pnc == get_Cond_default_proj(cond)) {
2382                                 /* a switch based of Top is always "default" */
2383                                 node->type.tv = tarval_reachable;
2384                         } else {
2385                                 node->type.tv = tarval_unreachable;
2386                         }
2387                 } else {
2388                         long value = get_tarval_long(selector->type.tv);
2389                         if (pnc == get_Cond_default_proj(cond)) {
2390                                 /* default switch, have to check ALL other cases */
2391                                 int i;
2392
2393                                 for (i = get_irn_n_outs(cond) - 1; i >= 0; --i) {
2394                                         ir_node *succ = get_irn_out(cond, i);
2395
2396                                         if (succ == proj)
2397                                                 continue;
2398                                         if (value == get_Proj_proj(succ)) {
2399                                                 /* we found a match, will NOT take the default case */
2400                                                 node->type.tv = tarval_unreachable;
2401                                                 return;
2402                                         }
2403                                 }
2404                                 /* all cases checked, no match, will take default case */
2405                                 node->type.tv = tarval_reachable;
2406                         } else {
2407                                 /* normal case */
2408                                 node->type.tv = value == pnc ? tarval_reachable : tarval_unreachable;
2409                         }
2410                 }
2411         }
2412 }  /* compute_Proj_Cond */
2413
2414 /**
2415  * (Re-)compute the type for a Proj-Node.
2416  *
2417  * @param node  the node
2418  */
2419 static void compute_Proj(node_t *node)
2420 {
2421         ir_node *proj = node->node;
2422         ir_mode *mode = get_irn_mode(proj);
2423         node_t  *block = get_irn_node(get_nodes_block(skip_Proj(proj)));
2424         ir_node *pred  = get_Proj_pred(proj);
2425
2426         if (block->type.tv == tarval_unreachable) {
2427                 /* a Proj in a unreachable Block stay Top */
2428                 node->type.tv = tarval_top;
2429                 return;
2430         }
2431         if (get_irn_node(pred)->type.tv == tarval_top && !is_Cond(pred)) {
2432                 /* if the predecessor is Top, its Proj follow */
2433                 node->type.tv = tarval_top;
2434                 return;
2435         }
2436
2437         if (mode == mode_M) {
2438                 /* mode M is always bottom */
2439                 node->type.tv = tarval_bottom;
2440                 return;
2441         } else if (mode == mode_X) {
2442                 /* handle mode_X nodes */
2443                 switch (get_irn_opcode(pred)) {
2444                 case iro_Start:
2445                         /* the Proj_X from the Start is always reachable.
2446                            However this is already handled at the top. */
2447                         node->type.tv = tarval_reachable;
2448                         return;
2449                 case iro_Cond:
2450                         compute_Proj_Cond(node, pred);
2451                         return;
2452                 default:
2453                         break;
2454                 }
2455         }
2456
2457         default_compute(node);
2458 }  /* compute_Proj */
2459
2460 /**
2461  * (Re-)compute the type for a Confirm.
2462  *
2463  * @param node  the node
2464  */
2465 static void compute_Confirm(node_t *node)
2466 {
2467         ir_node *confirm = node->node;
2468         node_t  *pred = get_irn_node(get_Confirm_value(confirm));
2469
2470         if (get_Confirm_relation(confirm) == ir_relation_equal) {
2471                 node_t *bound = get_irn_node(get_Confirm_bound(confirm));
2472
2473                 if (is_con(bound->type)) {
2474                         /* is equal to a constant */
2475                         node->type = bound->type;
2476                         return;
2477                 }
2478         }
2479         /* a Confirm is a copy OR a Const */
2480         node->type = pred->type;
2481 }  /* compute_Confirm */
2482
2483 /**
2484  * (Re-)compute the type for a given node.
2485  *
2486  * @param node  the node
2487  */
2488 static void compute(node_t *node)
2489 {
2490         ir_node *irn = node->node;
2491         compute_func func;
2492
2493 #ifndef VERIFY_MONOTONE
2494         /*
2495          * Once a node reaches bottom, the type cannot fall further
2496          * in the lattice and we can stop computation.
2497          * Do not take this exit if the monotony verifier is
2498          * enabled to catch errors.
2499          */
2500         if (node->type.tv == tarval_bottom)
2501                 return;
2502 #endif
2503
2504         if (!is_Block(irn)) {
2505                 /* for pinned nodes, check its control input */
2506                 if (get_irn_pinned(skip_Proj(irn)) == op_pin_state_pinned) {
2507                         node_t *block = get_irn_node(get_nodes_block(irn));
2508
2509                         if (block->type.tv == tarval_unreachable) {
2510                                 node->type.tv = tarval_top;
2511                                 return;
2512                         }
2513                 }
2514         }
2515
2516         func = (compute_func)node->node->op->ops.generic;
2517         if (func != NULL)
2518                 func(node);
2519 }  /* compute */
2520
2521 /*
2522  * Identity functions: Note that one might think that identity() is just a
2523  * synonym for equivalent_node(). While this is true, we cannot use it for the algorithm
2524  * here, because it expects that the identity node is one of the inputs, which is NOT
2525  * always true for equivalent_node() which can handle (and does sometimes) DAGs.
2526  * So, we have our own implementation, which copies some parts of equivalent_node()
2527  */
2528
2529 /**
2530  * Calculates the Identity for Phi nodes
2531  */
2532 static node_t *identity_Phi(node_t *node)
2533 {
2534         ir_node *phi    = node->node;
2535         ir_node *block  = get_nodes_block(phi);
2536         node_t  *n_part = NULL;
2537         int     i;
2538
2539         for (i = get_Phi_n_preds(phi) - 1; i >= 0; --i) {
2540                 node_t *pred_X = get_irn_node(get_Block_cfgpred(block, i));
2541
2542                 if (pred_X->type.tv == tarval_reachable) {
2543                         node_t *pred = get_irn_node(get_Phi_pred(phi, i));
2544
2545                         if (n_part == NULL)
2546                                 n_part = pred;
2547                         else if (n_part->part != pred->part) {
2548                                 /* incongruent inputs, not a follower */
2549                                 return node;
2550                         }
2551                 }
2552         }
2553         /* if n_part is NULL here, all inputs path are dead, the Phi computes
2554          * tarval_top, is in the TOP partition and should NOT being split! */
2555         assert(n_part != NULL);
2556         return n_part;
2557 }  /* identity_Phi */
2558
2559 /**
2560  * Calculates the Identity for commutative 0 neutral nodes.
2561  */
2562 static node_t *identity_comm_zero_binop(node_t *node)
2563 {
2564         ir_node   *op   = node->node;
2565         node_t    *a    = get_irn_node(get_binop_left(op));
2566         node_t    *b    = get_irn_node(get_binop_right(op));
2567         ir_mode   *mode = get_irn_mode(op);
2568         ir_tarval *zero;
2569
2570         /* for FP these optimizations are only allowed if fp_strict_algebraic is disabled */
2571         if (mode_is_float(mode) && (get_irg_fp_model(current_ir_graph) & fp_strict_algebraic))
2572                 return node;
2573
2574         /* node: no input should be tarval_top, else the binop would be also
2575          * Top and not being split. */
2576         zero = get_mode_null(mode);
2577         if (a->type.tv == zero)
2578                 return b;
2579         if (b->type.tv == zero)
2580                 return a;
2581         return node;
2582 }  /* identity_comm_zero_binop */
2583
2584 /**
2585  * Calculates the Identity for Shift nodes.
2586  */
2587 static node_t *identity_shift(node_t *node)
2588 {
2589         ir_node   *op   = node->node;
2590         node_t    *b    = get_irn_node(get_binop_right(op));
2591         ir_mode   *mode = get_irn_mode(b->node);
2592         ir_tarval *zero;
2593
2594         /* node: no input should be tarval_top, else the binop would be also
2595          * Top and not being split. */
2596         zero = get_mode_null(mode);
2597         if (b->type.tv == zero)
2598                 return get_irn_node(get_binop_left(op));
2599         return node;
2600 }  /* identity_shift */
2601
2602 /**
2603  * Calculates the Identity for Mul nodes.
2604  */
2605 static node_t *identity_Mul(node_t *node)
2606 {
2607         ir_node   *op   = node->node;
2608         node_t    *a    = get_irn_node(get_Mul_left(op));
2609         node_t    *b    = get_irn_node(get_Mul_right(op));
2610         ir_mode   *mode = get_irn_mode(op);
2611         ir_tarval *one;
2612
2613         /* for FP these optimizations are only allowed if fp_strict_algebraic is disabled */
2614         if (mode_is_float(mode) && (get_irg_fp_model(current_ir_graph) & fp_strict_algebraic))
2615                 return node;
2616
2617         /* node: no input should be tarval_top, else the binop would be also
2618          * Top and not being split. */
2619         one = get_mode_one(mode);
2620         if (a->type.tv == one)
2621                 return b;
2622         if (b->type.tv == one)
2623                 return a;
2624         return node;
2625 }  /* identity_Mul */
2626
2627 /**
2628  * Calculates the Identity for Sub nodes.
2629  */
2630 static node_t *identity_Sub(node_t *node)
2631 {
2632         ir_node *sub  = node->node;
2633         node_t  *b    = get_irn_node(get_Sub_right(sub));
2634         ir_mode *mode = get_irn_mode(sub);
2635
2636         /* for FP these optimizations are only allowed if fp_strict_algebraic is disabled */
2637         if (mode_is_float(mode) && (get_irg_fp_model(current_ir_graph) & fp_strict_algebraic))
2638                 return node;
2639
2640         /* node: no input should be tarval_top, else the binop would be also
2641          * Top and not being split. */
2642         if (b->type.tv == get_mode_null(mode))
2643                 return get_irn_node(get_Sub_left(sub));
2644         return node;
2645 }  /* identity_Sub */
2646
2647 /**
2648  * Calculates the Identity for And nodes.
2649  */
2650 static node_t *identity_And(node_t *node)
2651 {
2652         ir_node   *andnode = node->node;
2653         node_t    *a       = get_irn_node(get_And_left(andnode));
2654         node_t    *b       = get_irn_node(get_And_right(andnode));
2655         ir_tarval *neutral = get_mode_all_one(get_irn_mode(andnode));
2656
2657         /* node: no input should be tarval_top, else the And would be also
2658          * Top and not being split. */
2659         if (a->type.tv == neutral)
2660                 return b;
2661         if (b->type.tv == neutral)
2662                 return a;
2663         return node;
2664 }  /* identity_And */
2665
2666 /**
2667  * Calculates the Identity for Confirm nodes.
2668  */
2669 static node_t *identity_Confirm(node_t *node)
2670 {
2671         ir_node *confirm = node->node;
2672
2673         /* a Confirm is always a Copy */
2674         return get_irn_node(get_Confirm_value(confirm));
2675 }  /* identity_Confirm */
2676
2677 /**
2678  * Calculates the Identity for Mux nodes.
2679  */
2680 static node_t *identity_Mux(node_t *node)
2681 {
2682         ir_node *mux = node->node;
2683         node_t  *t   = get_irn_node(get_Mux_true(mux));
2684         node_t  *f   = get_irn_node(get_Mux_false(mux));
2685         /*node_t  *sel; */
2686
2687         if (t->part == f->part)
2688                 return t;
2689
2690         /* for now, the 1-input identity is not supported */
2691 #if 0
2692         sel = get_irn_node(get_Mux_sel(mux));
2693
2694         /* Mux sel input is mode_b, so it is always a tarval */
2695         if (sel->type.tv == tarval_b_true)
2696                 return t;
2697         if (sel->type.tv == tarval_b_false)
2698                 return f;
2699 #endif
2700         return node;
2701 }  /* identity_Mux */
2702
2703 /**
2704  * Calculates the Identity for nodes.
2705  */
2706 static node_t *identity(node_t *node)
2707 {
2708         ir_node *irn = node->node;
2709
2710         switch (get_irn_opcode(irn)) {
2711         case iro_Phi:
2712                 return identity_Phi(node);
2713         case iro_Mul:
2714                 return identity_Mul(node);
2715         case iro_Add:
2716         case iro_Or:
2717         case iro_Eor:
2718                 return identity_comm_zero_binop(node);
2719         case iro_Shr:
2720         case iro_Shl:
2721         case iro_Shrs:
2722         case iro_Rotl:
2723                 return identity_shift(node);
2724         case iro_And:
2725                 return identity_And(node);
2726         case iro_Sub:
2727                 return identity_Sub(node);
2728         case iro_Confirm:
2729                 return identity_Confirm(node);
2730         case iro_Mux:
2731                 return identity_Mux(node);
2732         default:
2733                 return node;
2734         }
2735 }  /* identity */
2736
2737 /**
2738  * Node follower is a (new) follower of leader, segregate Leader
2739  * out edges.
2740  */
2741 static void segregate_def_use_chain_1(const ir_node *follower, node_t *leader)
2742 {
2743         ir_node *l   = leader->node;
2744         int     j, i, n = get_irn_n_outs(l);
2745
2746         DB((dbg, LEVEL_2, "%+F is a follower of %+F\n", follower, leader->node));
2747         /* The leader edges must remain sorted, but follower edges can
2748            be unsorted. */
2749         for (i = leader->n_followers + 1; i <= n; ++i) {
2750                 if (l->out[i].use == follower) {
2751                         ir_def_use_edge t = l->out[i];
2752
2753                         for (j = i - 1; j >= leader->n_followers + 1; --j)
2754                                 l->out[j + 1] = l->out[j];
2755                         ++leader->n_followers;
2756                         l->out[leader->n_followers] = t;
2757                         break;
2758                 }
2759         }
2760 }  /* segregate_def_use_chain_1 */
2761
2762 /**
2763  * Node follower is a (new) follower segregate its Leader
2764  * out edges.
2765  *
2766  * @param follower  the follower IR node
2767  */
2768 static void segregate_def_use_chain(const ir_node *follower)
2769 {
2770         int i;
2771
2772         for (i = get_irn_arity(follower) - 1; i >= 0; --i) {
2773                 node_t *pred = get_irn_node(get_irn_n(follower, i));
2774
2775                 segregate_def_use_chain_1(follower, pred);
2776         }
2777 }  /* segregate_def_use_chain */
2778
2779 /**
2780  * Propagate constant evaluation.
2781  *
2782  * @param env  the environment
2783  */
2784 static void propagate(environment_t *env)
2785 {
2786         partition_t    *X, *Y;
2787         node_t         *x;
2788         lattice_elem_t old_type;
2789         node_t         *fallen;
2790         unsigned       n_fallen, old_type_was_T_or_C;
2791         int            i;
2792
2793         while (env->cprop != NULL) {
2794                 void *oldopcode = NULL;
2795
2796                 /* remove the first partition X from cprop */
2797                 X           = env->cprop;
2798                 X->on_cprop = 0;
2799                 env->cprop  = X->cprop_next;
2800
2801                 old_type_was_T_or_C = X->type_is_T_or_C;
2802
2803                 DB((dbg, LEVEL_2, "Propagate type on part%d\n", X->nr));
2804                 fallen   = NULL;
2805                 n_fallen = 0;
2806                 for (;;) {
2807                         int cprop_empty   = list_empty(&X->cprop);
2808                         int cprop_X_empty = list_empty(&X->cprop_X);
2809
2810                         if (cprop_empty && cprop_X_empty) {
2811                                 /* both cprop lists are empty */
2812                                 break;
2813                         }
2814
2815                         /* remove the first Node x from X.cprop */
2816                         if (cprop_empty) {
2817                                 /* Get a node from the cprop_X list only if
2818                                  * all data nodes are processed.
2819                                  * This ensures, that all inputs of the Cond
2820                                  * predecessor are processed if its type is still Top.
2821                                  */
2822                                 x = list_entry(X->cprop_X.next, node_t, cprop_list);
2823                         } else {
2824                                 x = list_entry(X->cprop.next, node_t, cprop_list);
2825                         }
2826
2827                         //assert(x->part == X);
2828                         list_del(&x->cprop_list);
2829                         x->on_cprop = 0;
2830
2831                         if (x->is_follower && identity(x) == x) {
2832                                 /* check the opcode first */
2833                                 if (oldopcode == NULL) {
2834                                         oldopcode = lambda_opcode(get_first_node(X), env);
2835                                 }
2836                                 if (oldopcode != lambda_opcode(x, env)) {
2837                                         if (x->on_fallen == 0) {
2838                                                 /* different opcode -> x falls out of this partition */
2839                                                 x->next      = fallen;
2840                                                 x->on_fallen = 1;
2841                                                 fallen       = x;
2842                                                 ++n_fallen;
2843                                                 DB((dbg, LEVEL_2, "Add node %+F to fallen\n", x->node));
2844                                         }
2845                                 }
2846
2847                                 /* x will make the follower -> leader transition */
2848                                 follower_to_leader(x);
2849                         }
2850
2851                         /* compute a new type for x */
2852                         old_type = x->type;
2853                         DB((dbg, LEVEL_3, "computing type of %+F\n", x->node));
2854                         compute(x);
2855                         if (x->type.tv != old_type.tv) {
2856                                 DB((dbg, LEVEL_2, "node %+F has changed type from %+F to %+F\n", x->node, old_type, x->type));
2857                                 verify_type(old_type, x);
2858
2859                                 if (x->on_fallen == 0) {
2860                                         /* Add x to fallen. Nodes might fall from T -> const -> _|_, so check that they are
2861                                            not already on the list. */
2862                                         x->next      = fallen;
2863                                         x->on_fallen = 1;
2864                                         fallen       = x;
2865                                         ++n_fallen;
2866                                         DB((dbg, LEVEL_2, "Add node %+F to fallen\n", x->node));
2867                                 }
2868                                 for (i = get_irn_n_outs(x->node) - 1; i >= 0; --i) {
2869                                         ir_node *succ = get_irn_out(x->node, i);
2870                                         node_t  *y    = get_irn_node(succ);
2871
2872                                         /* Add y to y.partition.cprop. */
2873                                         add_to_cprop(y, env);
2874                                 }
2875                         }
2876                 }
2877
2878                 if (n_fallen > 0 && n_fallen != X->n_leader) {
2879                         DB((dbg, LEVEL_2, "Splitting part%d by fallen\n", X->nr));
2880                         Y = split(&X, fallen, env);
2881                         /*
2882                          * We have split out fallen node. The type of the result
2883                          * partition is NOT set yet.
2884                          */
2885                         Y->type_is_T_or_C = 0;
2886                 } else {
2887                         Y = X;
2888                 }
2889                 /* remove the flags from the fallen list */
2890                 for (x = fallen; x != NULL; x = x->next)
2891                         x->on_fallen = 0;
2892
2893                 if (old_type_was_T_or_C) {
2894                         node_t *y, *tmp;
2895
2896                         /* check if some nodes will make the leader -> follower transition */
2897                         list_for_each_entry_safe(node_t, y, tmp, &Y->Leader, node_list) {
2898                                 if (y->type.tv != tarval_top && ! is_con(y->type)) {
2899                                         node_t *eq_node = identity(y);
2900
2901                                         if (eq_node != y && eq_node->part == y->part) {
2902                                                 DB((dbg, LEVEL_2, "Node %+F is a follower of %+F\n", y->node, eq_node->node));
2903                                                 /* move to Follower */
2904                                                 y->is_follower = 1;
2905                                                 list_del(&y->node_list);
2906                                                 list_add_tail(&y->node_list, &Y->Follower);
2907                                                 --Y->n_leader;
2908
2909                                                 segregate_def_use_chain(y->node);
2910                                         }
2911                                 }
2912                         }
2913                 }
2914                 split_by(Y, env);
2915         }
2916 }  /* propagate */
2917
2918 /**
2919  * Get the leader for a given node from its congruence class.
2920  *
2921  * @param irn  the node
2922  */
2923 static ir_node *get_leader(node_t *node)
2924 {
2925         partition_t *part = node->part;
2926
2927         if (part->n_leader > 1 || node->is_follower) {
2928                 if (node->is_follower) {
2929                         DB((dbg, LEVEL_2, "Replacing follower %+F\n", node->node));
2930                 }
2931                 else
2932                         DB((dbg, LEVEL_2, "Found congruence class for %+F\n", node->node));
2933
2934                 return get_first_node(part)->node;
2935         }
2936         return node->node;
2937 }  /* get_leader */
2938
2939 /**
2940  * Returns non-zero if a mode_T node has only one reachable output.
2941  */
2942 static int only_one_reachable_proj(ir_node *n)
2943 {
2944         int i, k = 0;
2945
2946         for (i = get_irn_n_outs(n) - 1; i >= 0; --i) {
2947                 ir_node *proj = get_irn_out(n, i);
2948                 node_t  *node;
2949
2950                 /* skip non-control flow Proj's */
2951                 if (get_irn_mode(proj) != mode_X)
2952                         continue;
2953
2954                 node = get_irn_node(proj);
2955                 if (node->type.tv == tarval_reachable) {
2956                         if (++k > 1)
2957                                 return 0;
2958                 }
2959         }
2960         return 1;
2961 }  /* only_one_reachable_proj */
2962
2963 /**
2964  * Return non-zero if the control flow predecessor node pred
2965  * is the only reachable control flow exit of its block.
2966  *
2967  * @param pred   the control flow exit
2968  * @param block  the destination block
2969  */
2970 static int can_exchange(ir_node *pred, ir_node *block)
2971 {
2972         if (is_Start(pred) || has_Block_entity(block))
2973                 return 0;
2974         else if (is_Jmp(pred))
2975                 return 1;
2976         else if (get_irn_mode(pred) == mode_T) {
2977                 /* if the predecessor block has more than one
2978                    reachable outputs we cannot remove the block */
2979                 return only_one_reachable_proj(pred);
2980         }
2981         return 0;
2982 }  /* can_exchange */
2983
2984 /**
2985  * Block Post-Walker, apply the analysis results on control flow by
2986  * shortening Phi's and Block inputs.
2987  */
2988 static void apply_cf(ir_node *block, void *ctx)
2989 {
2990         environment_t *env = (environment_t*)ctx;
2991         node_t        *node = get_irn_node(block);
2992         int           i, j, k, n;
2993         ir_node       **ins, **in_X;
2994         ir_node       *phi, *next;
2995
2996         n = get_Block_n_cfgpreds(block);
2997
2998         if (node->type.tv == tarval_unreachable) {
2999                 env->modified = 1;
3000
3001                 for (i = n - 1; i >= 0; --i) {
3002                         ir_node *pred = get_Block_cfgpred(block, i);
3003
3004                         if (! is_Bad(pred)) {
3005                                 ir_node *pred_block = get_nodes_block(skip_Proj(pred));
3006                                 if (!is_Bad(pred_block)) {
3007                                         node_t *pred_bl = get_irn_node(pred_block);
3008
3009                                         if (pred_bl->flagged == 0) {
3010                                                 pred_bl->flagged = 3;
3011
3012                                                 if (pred_bl->type.tv == tarval_reachable) {
3013                                                         /*
3014                                                          * We will remove an edge from block to its pred.
3015                                                          * This might leave the pred block as an endless loop
3016                                                          */
3017                                                         if (! is_backedge(block, i))
3018                                                                 keep_alive(pred_bl->node);
3019                                                 }
3020                                         }
3021                                 }
3022                         }
3023                 }
3024
3025                 /* the EndBlock is always reachable even if the analysis
3026                    finds out the opposite :-) */
3027                 if (block != get_irg_end_block(current_ir_graph)) {
3028                         /* mark dead blocks */
3029                         //set_Block_dead(block);
3030                         //ir_graph *irg = get_irn_irg(block);
3031                         //exchange(block, get_irg_bad(irg));
3032                         DB((dbg, LEVEL_1, "Removing dead %+F\n", block));
3033                 } else {
3034                         /* the endblock is unreachable */
3035                         set_irn_in(block, 0, NULL);
3036                 }
3037                 return;
3038         }
3039
3040         if (n == 1) {
3041                 /* only one predecessor combine */
3042                 ir_node *pred = skip_Proj(get_Block_cfgpred(block, 0));
3043
3044                 if (can_exchange(pred, block)) {
3045                         ir_node *new_block = get_nodes_block(pred);
3046                         DB((dbg, LEVEL_1, "Fuse %+F with %+F\n", block, new_block));
3047                         DBG_OPT_COMBO(block, new_block, FS_OPT_COMBO_CF);
3048                         exchange(block, new_block);
3049                         node->node = new_block;
3050                         env->modified = 1;
3051                 }
3052                 return;
3053         }
3054
3055         NEW_ARR_A(ir_node *, in_X, n);
3056         k = 0;
3057         for (i = 0; i < n; ++i) {
3058                 ir_node *pred = get_Block_cfgpred(block, i);
3059                 node_t  *node = get_irn_node(pred);
3060
3061                 if (node->type.tv == tarval_reachable) {
3062                         in_X[k++] = pred;
3063                 } else {
3064                         DB((dbg, LEVEL_1, "Removing dead input %d from %+F (%+F)\n", i, block, pred));
3065                         if (! is_Bad(pred)) {
3066                                 ir_node *pred_block = get_nodes_block(skip_Proj(pred));
3067                                 if (!is_Bad(pred_block)) {
3068                                         node_t *pred_bl = get_irn_node(pred_block);
3069
3070                                         if (!is_Bad(pred_bl->node) && pred_bl->flagged == 0) {
3071                                                 pred_bl->flagged = 3;
3072
3073                                                 if (pred_bl->type.tv == tarval_reachable) {
3074                                                         /*
3075                                                          * We will remove an edge from block to its pred.
3076                                                          * This might leave the pred block as an endless loop
3077                                                          */
3078                                                         if (! is_backedge(block, i))
3079                                                                 keep_alive(pred_bl->node);
3080                                                 }
3081                                         }
3082                                 }
3083                         }
3084                 }
3085         }
3086         if (k >= n)
3087                 return;
3088
3089         /* fix Phi's */
3090         NEW_ARR_A(ir_node *, ins, n);
3091         for (phi = get_Block_phis(block); phi != NULL; phi = next) {
3092                 node_t *node = get_irn_node(phi);
3093
3094                 next = get_Phi_next(phi);
3095                 if (is_tarval(node->type.tv) && tarval_is_constant(node->type.tv)) {
3096                         /* this Phi is replaced by a constant */
3097                         ir_tarval *tv = node->type.tv;
3098                         ir_node   *c  = new_r_Const(current_ir_graph, tv);
3099
3100                         set_irn_node(c, node);
3101                         node->node = c;
3102                         DB((dbg, LEVEL_1, "%+F is replaced by %+F\n", phi, c));
3103                         DBG_OPT_COMBO(phi, c, FS_OPT_COMBO_CONST);
3104                         exchange(phi, c);
3105                         env->modified = 1;
3106                 } else {
3107                         j = 0;
3108                         for (i = 0; i < n; ++i) {
3109                                 node_t *pred = get_irn_node(get_Block_cfgpred(block, i));
3110
3111                                 if (pred->type.tv == tarval_reachable) {
3112                                         ins[j++] = get_Phi_pred(phi, i);
3113                                 }
3114                         }
3115                         if (j == 1) {
3116                                 /* this Phi is replaced by a single predecessor */
3117                                 ir_node *s = ins[0];
3118                                 node_t *phi_node = get_irn_node(phi);
3119
3120                                 node->node = s;
3121                                 DB((dbg, LEVEL_1, "%+F is replaced by %+F because of cf change\n", phi, s));
3122                                 DBG_OPT_COMBO(phi, s, FS_OPT_COMBO_FOLLOWER);
3123                                 exchange(phi, s);
3124                                 phi_node->node = s;
3125                                 env->modified = 1;
3126                         } else {
3127                                 set_irn_in(phi, j, ins);
3128                                 env->modified = 1;
3129                         }
3130                 }
3131         }
3132
3133         /* fix block */
3134         if (k == 1) {
3135                 /* this Block has only one live predecessor */
3136                 ir_node *pred = skip_Proj(in_X[0]);
3137
3138                 if (can_exchange(pred, block)) {
3139                         ir_node *new_block = get_nodes_block(pred);
3140                         DBG_OPT_COMBO(block, new_block, FS_OPT_COMBO_CF);
3141                         exchange(block, new_block);
3142                         node->node = new_block;
3143                         env->modified = 1;
3144                         return;
3145                 }
3146         }
3147         set_irn_in(block, k, in_X);
3148         env->modified = 1;
3149 }  /* apply_cf */
3150
3151 /**
3152  * Exchange a node by its leader.
3153  * Beware: in rare cases the mode might be wrong here, for instance
3154  * AddP(x, NULL) is a follower of x, but with different mode.
3155  * Fix it here.
3156  */
3157 static void exchange_leader(ir_node *irn, ir_node *leader)
3158 {
3159         ir_mode *mode = get_irn_mode(irn);
3160         if (mode != get_irn_mode(leader)) {
3161                 /* The conv is a no-op, so we are free to place it
3162                  * either in the block of the leader OR in irn's block.
3163                  * Probably placing it into leaders block might reduce
3164                  * the number of Conv due to CSE. */
3165                 ir_node  *block = get_nodes_block(leader);
3166                 dbg_info *dbg   = get_irn_dbg_info(irn);
3167                 ir_node  *nlead = new_rd_Conv(dbg, block, leader, mode);
3168
3169                 if (nlead != leader) {
3170                         /* Note: this newly create irn has no node info because
3171                          * it is created after the analysis. However, this node
3172                          * replaces the node irn and should not be visited again,
3173                          * so set its visited count to the count of irn.
3174                          * Otherwise we might visited this node more than once if
3175                          * irn had more than one user.
3176                          */
3177                         set_irn_node(nlead, NULL);
3178                         set_irn_visited(nlead, get_irn_visited(irn));
3179                         leader = nlead;
3180                 }
3181         }
3182         exchange(irn, leader);
3183 }  /* exchange_leader */
3184
3185 /**
3186  * Check, if all users of a mode_M node are dead. Use
3187  * the Def-Use edges for this purpose, as they still
3188  * reflect the situation.
3189  */
3190 static int all_users_are_dead(const ir_node *irn)
3191 {
3192         int i, n = get_irn_n_outs(irn);
3193
3194         for (i = 1; i <= n; ++i) {
3195                 const ir_node *succ  = irn->out[i].use;
3196                 const node_t  *block = get_irn_node(get_nodes_block(succ));
3197                 const node_t  *node;
3198
3199                 if (block->type.tv == tarval_unreachable) {
3200                         /* block is unreachable */
3201                         continue;
3202                 }
3203                 node = get_irn_node(succ);
3204                 if (node->type.tv != tarval_top) {
3205                         /* found a reachable user */
3206                         return 0;
3207                 }
3208         }
3209         /* all users are unreachable */
3210         return 1;
3211 }  /* all_user_are_dead */
3212
3213 /**
3214  * Walker: Find reachable mode_M nodes that have only
3215  * unreachable users. These nodes must be kept later.
3216  */
3217 static void find_kept_memory(ir_node *irn, void *ctx)
3218 {
3219         environment_t *env = (environment_t*)ctx;
3220         node_t        *node, *block;
3221
3222         if (get_irn_mode(irn) != mode_M)
3223                 return;
3224
3225         block = get_irn_node(get_nodes_block(irn));
3226         if (block->type.tv == tarval_unreachable)
3227                 return;
3228
3229         node = get_irn_node(irn);
3230         if (node->type.tv == tarval_top)
3231                 return;
3232
3233         /* ok, we found a live memory node. */
3234         if (all_users_are_dead(irn)) {
3235                 DB((dbg, LEVEL_1, "%+F must be kept\n", irn));
3236                 ARR_APP1(ir_node *, env->kept_memory, irn);
3237         }
3238 }  /* find_kept_memory */
3239
3240 /**
3241  * Post-Walker, apply the analysis results;
3242  */
3243 static void apply_result(ir_node *irn, void *ctx)
3244 {
3245         environment_t *env = (environment_t*)ctx;
3246         node_t        *node = get_irn_node(irn);
3247
3248         if (is_Block(irn) || is_End(irn) || is_Bad(irn)) {
3249                 /* blocks already handled, do not touch the End node */
3250         } else {
3251                 node_t *block = get_irn_node(get_nodes_block(irn));
3252
3253                 if (block->type.tv == tarval_unreachable) {
3254                         ir_node *bad = get_irg_bad(current_ir_graph);
3255
3256                         /* here, bad might already have a node, but this can be safely ignored
3257                            as long as bad has at least ONE valid node */
3258                         set_irn_node(bad, node);
3259                         node->node = bad;
3260                         DB((dbg, LEVEL_1, "%+F is unreachable\n", irn));
3261                         exchange(irn, bad);
3262                         env->modified = 1;
3263                 } else if (node->type.tv == tarval_top) {
3264                         ir_mode *mode = get_irn_mode(irn);
3265
3266                         if (mode == mode_M) {
3267                                 /* never kill a mode_M node */
3268                                 if (is_Proj(irn)) {
3269                                         ir_node *pred  = get_Proj_pred(irn);
3270                                         node_t  *pnode = get_irn_node(pred);
3271
3272                                         if (pnode->type.tv == tarval_top) {
3273                                                 /* skip the predecessor */
3274                                                 ir_node *mem = get_memop_mem(pred);
3275                                                 node->node = mem;
3276                                                 DB((dbg, LEVEL_1, "%+F computes Top, replaced by %+F\n", irn, mem));
3277                                                 exchange(irn, mem);
3278                                                 env->modified = 1;
3279                                         }
3280                                 }
3281                                 /* leave other nodes, especially PhiM */
3282                         } else if (mode == mode_T) {
3283                                 /* Do not kill mode_T nodes, kill their Projs */
3284                         } else if (! is_Unknown(irn)) {
3285                                 /* don't kick away Unknown's, they might be still needed */
3286                                 ir_node *unk = new_r_Unknown(current_ir_graph, mode);
3287
3288                                 /* control flow should already be handled at apply_cf() */
3289                                 assert(mode != mode_X);
3290
3291                                 /* see comment above */
3292                                 set_irn_node(unk, node);
3293                                 node->node = unk;
3294                                 DB((dbg, LEVEL_1, "%+F computes Top\n", irn));
3295                                 exchange(irn, unk);
3296                                 env->modified = 1;
3297                         }
3298                 }
3299                 else if (get_irn_mode(irn) == mode_X) {
3300                         if (is_Proj(irn)) {
3301                                 /* leave or Jmp */
3302                                 ir_node *cond = get_Proj_pred(irn);
3303
3304                                 if (is_Cond(cond)) {
3305                                         if (only_one_reachable_proj(cond)) {
3306                                                 ir_node *jmp = new_r_Jmp(block->node);
3307                                                 set_irn_node(jmp, node);
3308                                                 node->node = jmp;
3309                                                 DB((dbg, LEVEL_1, "%+F is replaced by %+F\n", irn, jmp));
3310                                                 DBG_OPT_COMBO(irn, jmp, FS_OPT_COMBO_CF);
3311                                                 exchange(irn, jmp);
3312                                                 env->modified = 1;
3313                                         } else {
3314                                                 node_t    *sel = get_irn_node(get_Cond_selector(cond));
3315                                                 ir_tarval *tv  = sel->type.tv;
3316
3317                                                 if (is_tarval(tv) && tarval_is_constant(tv)) {
3318                                                         /* The selector is a constant, but more
3319                                                          * than one output is active: An unoptimized
3320                                                          * case found. */
3321                                                         env->unopt_cf = 1;
3322                                                 }
3323                                         }
3324                                 }
3325                         }
3326                 } else {
3327                         /* normal data node */
3328                         if (is_tarval(node->type.tv) && tarval_is_constant(node->type.tv)) {
3329                                 ir_tarval *tv = node->type.tv;
3330
3331                                 /*
3332                                  * Beware: never replace mode_T nodes by constants. Currently we must mark
3333                                  * mode_T nodes with constants, but do NOT replace them.
3334                                  */
3335                                 if (! is_Const(irn) && get_irn_mode(irn) != mode_T) {
3336                                         /* can be replaced by a constant */
3337                                         ir_node *c = new_r_Const(current_ir_graph, tv);
3338                                         set_irn_node(c, node);
3339                                         node->node = c;
3340                                         DB((dbg, LEVEL_1, "%+F is replaced by %+F\n", irn, c));
3341                                         DBG_OPT_COMBO(irn, c, FS_OPT_COMBO_CONST);
3342                                         exchange_leader(irn, c);
3343                                         env->modified = 1;
3344                                 }
3345                         } else if (is_entity(node->type.sym.entity_p)) {
3346                                 if (! is_SymConst(irn)) {
3347                                         /* can be replaced by a SymConst */
3348                                         ir_node *symc = new_r_SymConst(current_ir_graph, get_irn_mode(irn), node->type.sym, symconst_addr_ent);
3349                                         set_irn_node(symc, node);
3350                                         node->node = symc;
3351
3352                                         DB((dbg, LEVEL_1, "%+F is replaced by %+F\n", irn, symc));
3353                                         DBG_OPT_COMBO(irn, symc, FS_OPT_COMBO_CONST);
3354                                         exchange_leader(irn, symc);
3355                                         env->modified = 1;
3356                                 }
3357                         } else if (is_Confirm(irn)) {
3358                                 /* Confirms are always follower, but do not kill them here */
3359                         } else {
3360                                 ir_node *leader = get_leader(node);
3361
3362                                 if (leader != irn) {
3363                                         int non_strict_phi = 0;
3364
3365                                         /*
3366                                          * Beware: Do not remove Phi(Unknown, ..., x, ..., Unknown)
3367                                          * as this might create non-strict programs.
3368                                          */
3369                                         if (node->is_follower && is_Phi(irn) && !is_Unknown(leader)) {
3370                                                 int i;
3371
3372                                                 for (i = get_Phi_n_preds(irn) - 1; i >= 0; --i) {
3373                                                         ir_node *pred = get_Phi_pred(irn, i);
3374
3375                                                         if (is_Unknown(pred)) {
3376                                                                 non_strict_phi = 1;
3377                                                                 break;
3378                                                         }
3379                                                 }
3380                                         }
3381                                         if (! non_strict_phi) {
3382                                                 DB((dbg, LEVEL_1, "%+F from part%d is replaced by %+F\n", irn, node->part->nr, leader));
3383                                                 if (node->is_follower)
3384                                                         DBG_OPT_COMBO(irn, leader, FS_OPT_COMBO_FOLLOWER);
3385                                                 else
3386                                                         DBG_OPT_COMBO(irn, leader, FS_OPT_COMBO_CONGRUENT);
3387                                                 exchange_leader(irn, leader);
3388                                                 env->modified = 1;
3389                                         }
3390                                 }
3391                         }
3392                 }
3393         }
3394 }  /* apply_result */
3395
3396 /**
3397  * Fix the keep-alives by deleting unreachable ones.
3398  */
3399 static void apply_end(ir_node *end, environment_t *env)
3400 {
3401         int i, j,  n = get_End_n_keepalives(end);
3402         ir_node **in = NULL;
3403
3404         if (n > 0)
3405                 NEW_ARR_A(ir_node *, in, n);
3406
3407         /* fix the keep alive */
3408         for (i = j = 0; i < n; i++) {
3409                 ir_node *ka = get_End_keepalive(end, i);
3410                 ir_node *block;
3411                 node_t  *node;
3412
3413                 if (is_Bad(ka))
3414                         continue;
3415                 if (!is_Block(ka)) {
3416                         block = get_nodes_block(ka);
3417                         if (is_Bad(block))
3418                                 continue;
3419                 } else {
3420                         block = ka;
3421                 }
3422
3423                 node = get_irn_node(block);
3424                 if (node->type.tv != tarval_unreachable)
3425                         in[j++] = ka;
3426         }
3427         if (j != n) {
3428                 set_End_keepalives(end, j, in);
3429                 env->modified = 1;
3430         }
3431 }  /* apply_end */
3432
3433 #define SET(code) op_##code->ops.generic = (op_func)compute_##code
3434
3435 /**
3436  * sets the generic functions to compute.
3437  */
3438 static void set_compute_functions(void)
3439 {
3440         size_t i, n;
3441
3442         /* set the default compute function */
3443         for (i = 0, n = get_irp_n_opcodes(); i < n; ++i) {
3444                 ir_op *op = get_irp_opcode(i);
3445                 op->ops.generic = (op_func)default_compute;
3446         }
3447
3448         /* set specific functions */
3449         SET(Block);
3450         SET(Unknown);
3451         SET(Bad);
3452         SET(Jmp);
3453         SET(Phi);
3454         SET(Add);
3455         SET(Sub);
3456         SET(Eor);
3457         SET(SymConst);
3458         SET(Cmp);
3459         SET(Proj);
3460         SET(Confirm);
3461         SET(Return);
3462         SET(End);
3463         SET(Call);
3464 }  /* set_compute_functions */
3465
3466 /**
3467  * Add memory keeps.
3468  */
3469 static void add_memory_keeps(ir_node **kept_memory, size_t len)
3470 {
3471         ir_node      *end = get_irg_end(current_ir_graph);
3472         int          i;
3473         size_t       idx;
3474         ir_nodeset_t set;
3475
3476         ir_nodeset_init(&set);
3477
3478         /* check, if those nodes are already kept */
3479         for (i = get_End_n_keepalives(end) - 1; i >= 0; --i)
3480                 ir_nodeset_insert(&set, get_End_keepalive(end, i));
3481
3482         for (idx = 0; idx < len; ++idx) {
3483                 ir_node *ka = kept_memory[idx];
3484
3485                 if (! ir_nodeset_contains(&set, ka)) {
3486                         add_End_keepalive(end, ka);
3487                 }
3488         }
3489         ir_nodeset_destroy(&set);
3490 }  /* add_memory_keeps */
3491
3492 void combo(ir_graph *irg)
3493 {
3494         environment_t env;
3495         ir_node       *initial_bl;
3496         node_t        *start;
3497         ir_graph      *rem = current_ir_graph;
3498         size_t        len;
3499
3500         current_ir_graph = irg;
3501
3502         /* register a debug mask */
3503         FIRM_DBG_REGISTER(dbg, "firm.opt.combo");
3504
3505         DB((dbg, LEVEL_1, "Doing COMBO for %+F\n", irg));
3506
3507         obstack_init(&env.obst);
3508         env.worklist       = NULL;
3509         env.cprop          = NULL;
3510         env.touched        = NULL;
3511         env.initial        = NULL;
3512 #ifdef DEBUG_libfirm
3513         env.dbg_list       = NULL;
3514 #endif
3515         env.opcode2id_map  = new_set(cmp_opcode, iro_Last * 4);
3516         env.kept_memory    = NEW_ARR_F(ir_node *, 0);
3517         env.end_idx        = get_opt_global_cse() ? 0 : -1;
3518         env.lambda_input   = 0;
3519         env.modified       = 0;
3520         env.unopt_cf       = 0;
3521         /* options driving the optimization */
3522         env.commutative    = 1;
3523         env.opt_unknown    = 1;
3524
3525         assure_irg_outs(irg);
3526         assure_cf_loop(irg);
3527
3528         /* we have our own value_of function */
3529         set_value_of_func(get_node_tarval);
3530
3531         set_compute_functions();
3532         DEBUG_ONLY(part_nr = 0);
3533
3534         ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_PHI_LIST);
3535
3536         if (env.opt_unknown)
3537                 tarval_UNKNOWN = tarval_top;
3538         else
3539                 tarval_UNKNOWN = tarval_bad;
3540
3541         /* create the initial partition and place it on the work list */
3542         env.initial = new_partition(&env);
3543         add_to_worklist(env.initial, &env);
3544         irg_walk_graph(irg, create_initial_partitions, init_block_phis, &env);
3545
3546         /* set the hook: from now, every node has a partition and a type */
3547         DEBUG_ONLY(set_dump_node_vcgattr_hook(dump_partition_hook));
3548
3549         /* all nodes on the initial partition have type Top */
3550         env.initial->type_is_T_or_C = 1;
3551
3552         /* Place the START Node's partition on cprop.
3553            Place the START Node on its local worklist. */
3554         initial_bl = get_irg_start_block(irg);
3555         start      = get_irn_node(initial_bl);
3556         add_to_cprop(start, &env);
3557
3558         do {
3559                 propagate(&env);
3560                 if (env.worklist != NULL)
3561                         cause_splits(&env);
3562         } while (env.cprop != NULL || env.worklist != NULL);
3563
3564         dump_all_partitions(&env);
3565         check_all_partitions(&env);
3566
3567 #if 0
3568         dump_ir_block_graph(irg, "-partition");
3569 #endif
3570
3571         /* apply the result */
3572
3573         /* check, which nodes must be kept */
3574         irg_walk_graph(irg, NULL, find_kept_memory, &env);
3575
3576         /* kill unreachable control flow */
3577         irg_block_walk_graph(irg, NULL, apply_cf, &env);
3578         /* Kill keep-alives of dead blocks: this speeds up apply_result()
3579          * and fixes assertion because dead cf to dead blocks is NOT removed by
3580          * apply_cf(). */
3581         apply_end(get_irg_end(irg), &env);
3582         irg_walk_graph(irg, NULL, apply_result, &env);
3583
3584         len = ARR_LEN(env.kept_memory);
3585         if (len > 0)
3586                 add_memory_keeps(env.kept_memory, len);
3587
3588         if (env.unopt_cf) {
3589                 DB((dbg, LEVEL_1, "Unoptimized Control Flow left"));
3590         }
3591
3592         if (env.modified) {
3593                 /* control flow might changed */
3594                 set_irg_outs_inconsistent(irg);
3595                 set_irg_extblk_inconsistent(irg);
3596                 set_irg_doms_inconsistent(irg);
3597                 set_irg_loopinfo_inconsistent(irg);
3598                 set_irg_entity_usage_state(irg, ir_entity_usage_not_computed);
3599         }
3600
3601         ir_free_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_PHI_LIST);
3602
3603         /* remove the partition hook */
3604         DEBUG_ONLY(set_dump_node_vcgattr_hook(NULL));
3605
3606         DEL_ARR_F(env.kept_memory);
3607         del_set(env.opcode2id_map);
3608         obstack_free(&env.obst, NULL);
3609
3610         /* restore value_of() default behavior */
3611         set_value_of_func(NULL);
3612         current_ir_graph = rem;
3613 }  /* combo */
3614
3615 /* Creates an ir_graph pass for combo. */
3616 ir_graph_pass_t *combo_pass(const char *name)
3617 {
3618         return def_graph_pass(name ? name : "combo", combo);
3619 }  /* combo_pass */