always compute doms in optimize_graph_df instead of hoping for them to be available
[libfirm] / ir / ir / iredges.c
1 /*
2  * Copyright (C) 1995-2011 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Always available outs.
23  * @author  Sebastian Hack, Michael Beck, Andreas Schoesser
24  * @date    14.1.2005
25  * @version $Id$
26  * @brief
27  *   This are out-edges (also called def-use edges) that are dynamically
28  *   updated as the graph changes.
29  */
30 #include "config.h"
31
32 #include "irnode_t.h"
33 #include "iropt_t.h"
34 #include "iredgekinds.h"
35 #include "iredges_t.h"
36 #include "irgwalk.h"
37 #include "irdump_t.h"
38 #include "irprintf.h"
39 #include "debug.h"
40 #include "set.h"
41 #include "bitset.h"
42 #include "error.h"
43 #include "irpass_t.h"
44
45 #include "iredgeset.h"
46 #include "hashptr.h"
47
48 #define DO_REHASH
49 #define SCALAR_RETURN
50 #define HashSet                   ir_edgeset_t
51 #define HashSetIterator           ir_edgeset_iterator_t
52 #define ValueType                 ir_edge_t*
53 #define NullValue                 NULL
54 #define DeletedValue              ((ir_edge_t*)-1)
55 #define Hash(this,key)            (HASH_PTR(key->src) ^ (key->pos * 40013))
56 #define KeysEqual(this,key1,key2) ((key1->src) == (key2->src) && (key1->pos == key2->pos))
57 #define SetRangeEmpty(ptr,size)   memset(ptr, 0, (size) * sizeof((ptr)[0]))
58
59 #define hashset_init            ir_edgeset_init
60 void ir_edgeset_init_size(ir_edgeset_t *self, size_t size);
61 #define hashset_init_size       ir_edgeset_init_size
62 #define hashset_destroy         ir_edgeset_destroy
63 #define hashset_insert          ir_edgeset_insert
64 #define hashset_remove          ir_edgeset_remove
65 ir_edge_t *ir_edgeset_find(const ir_edgeset_t *self, const ir_edge_t*);
66 #define hashset_find            ir_edgeset_find
67 size_t ir_edgeset_size(const ir_edgeset_t *self);
68 #define hashset_size            ir_edgeset_size
69 #define hashset_iterator_init   ir_edgeset_iterator_init
70 #define hashset_iterator_next   ir_edgeset_iterator_next
71 #define hashset_remove_iterator ir_edgeset_remove_iterator
72
73 #include "hashset.c"
74
75 /**
76  * A function that allows for setting an edge.
77  * This abstraction is necessary since different edge kind have
78  * different methods of setting edges.
79  */
80 typedef void (set_edge_func_t)(ir_node *src, int pos, ir_node *tgt);
81
82 /**
83  * A function that returns the "arity" of a given edge kind
84  * for a node.
85  */
86 typedef int (get_edge_src_arity_func_t)(const ir_node *src);
87
88 /**
89  * A function that returns the pos'th edge of a given edge kind for a node.
90  */
91 typedef ir_node *(get_edge_src_n_func_t)(const ir_node *src, int pos);
92
93 /**
94  * Additional data for an edge kind.
95  */
96 typedef struct {
97         const char                *name;       /**< name of this edge kind */
98         set_edge_func_t           *set_edge;   /**< the set_edge function */
99         int                       first_idx;   /**< index of the first possible edge */
100         get_edge_src_arity_func_t *get_arity;  /**< the get_arity function */
101         get_edge_src_n_func_t     *get_n;      /**< the get_n function */
102 } ir_edge_kind_info_t;
103
104 /**
105  * Get the predecessor block.
106  */
107 static ir_node *get_block_n(const ir_node *block, int pos)
108 {
109         if (is_Block(block))
110                 return get_Block_cfgpred_block(block, pos);
111         /* might be a Bad */
112         return NULL;
113 }
114
115 static const ir_edge_kind_info_t edge_kind_info[EDGE_KIND_LAST] = {
116         { "normal"     , set_irn_n,   -1, get_irn_arity,  get_irn_n   },
117         { "block succs", NULL,         0, get_irn_arity,  get_block_n },
118         { "dependency",  set_irn_dep,  0, get_irn_deps,   get_irn_dep }
119 };
120
121 #define foreach_tgt(irn, i, n, kind) for (i = edge_kind_info[kind].first_idx, n = edge_kind_info[kind].get_arity(irn); i < n; ++i)
122 #define get_n(irn, pos, kind)        (edge_kind_info[kind].get_n(irn, pos))
123 #define get_kind_str(kind)           (edge_kind_info[kind].name)
124
125 DEBUG_ONLY(static firm_dbg_module_t *dbg;)
126
127 /**
128  * This flag is set to 1, if the edges get initialized for an irg.
129  * Then register additional data is forbidden.
130  */
131 static int edges_used = 0;
132
133 /**
134  * Summed size of all users private data
135  */
136
137 static size_t edges_private_size = 0;
138 #define EDGE_SIZE (sizeof(ir_edge_t) + edges_private_size)
139
140 /**
141  * If set to 1, the list heads are checked every time an edge is changed.
142  */
143 static int edges_dbg = 0;
144
145 /**
146  * Returns an ID for the given edge.
147  */
148 static inline long edge_get_id(const ir_edge_t *e)
149 {
150         return (long)e;
151 }
152
153 /**
154  * Announce to reserve extra space for each edge to be allocated.
155  *
156  * @param n: Size of the space to reserve
157  *
158  * @return Offset at which the private data will begin
159  *
160  * Several users can reserve extra space for private usage.
161  * Each user has to remember his given offset and the size of his private data.
162  * To be called before FIRM is initialized.
163  */
164 size_t edges_register_private_data(size_t n)
165 {
166         size_t res = edges_private_size;
167
168         assert(!edges_used && "you cannot register private edge data, if edges have been initialized");
169
170         edges_private_size += n;
171         return res;
172 }
173
174 /*
175  * Reset the user's private data at offset 'offset'
176  * The user has to remember his offset and the size of his data!
177  * Caution: Using wrong values here can destroy other users private data!
178  */
179 void edges_reset_private_data(ir_graph *irg, int offset, unsigned size)
180 {
181         irg_edge_info_t       *info = _get_irg_edge_info(irg, EDGE_KIND_NORMAL);
182         ir_edge_t             *edge;
183         ir_edgeset_iterator_t  iter;
184
185         foreach_ir_edgeset(&info->edges, edge, iter) {
186                 memset(edge + sizeof(*edge) + offset, 0, size);
187         }
188 }
189
190 #define TIMES37(x) (((x) << 5) + ((x) << 2) + (x))
191
192 #define get_irn_out_list_head(irn) (&get_irn_out_info(irn)->outs)
193
194 #define edge_hash(edge) (TIMES37((edge)->pos) + HASH_PTR((edge)->src))
195
196 /**
197  * Initialize the out information for a graph.
198  * @note Dead node elimination can call this on an already initialized graph.
199  */
200 void edges_init_graph_kind(ir_graph *irg, ir_edge_kind_t kind)
201 {
202         if (edges_activated_kind(irg, kind)) {
203                 irg_edge_info_t *info = _get_irg_edge_info(irg, kind);
204                 size_t amount = irg->estimated_node_count * 2;
205
206                 edges_used = 1;
207                 if (info->allocated) {
208                         amount = ir_edgeset_size(&info->edges);
209                         ir_edgeset_destroy(&info->edges);
210                         obstack_free(&info->edges_obst, NULL);
211                 }
212                 obstack_init(&info->edges_obst);
213                 INIT_LIST_HEAD(&info->free_edges);
214                 ir_edgeset_init_size(&info->edges, amount);
215                 info->allocated = 1;
216         }
217 }
218
219 /**
220  * Get the edge object of an outgoing edge at a node.
221  * @param  irg  The graph, the node is in.
222  * @param  src  The node at which the edge originates.
223  * @param  pos  The position of the edge.
224  * @param  kind The kind of the edge.
225  * @return      The corresponding edge object or NULL,
226  *              if no such edge exists.
227  */
228 const ir_edge_t *get_irn_edge_kind(const ir_node *src, int pos, ir_edge_kind_t kind)
229 {
230         ir_graph *irg = get_irn_irg(src);
231         if (edges_activated_kind(irg, kind)) {
232                 irg_edge_info_t *info = _get_irg_edge_info(irg, kind);
233                 ir_edge_t       key;
234
235                 key.src = (ir_node *)src;
236                 key.pos = pos;
237
238                 return ir_edgeset_find(&info->edges, &key);
239         }
240
241         return NULL;
242 }
243
244 /**
245  * Change the out count
246  *
247  * @param tgt  the edge target
248  * @param kind the kind of the edge
249  */
250 static inline void edge_change_cnt(ir_node *tgt, ir_edge_kind_t kind, int ofs)
251 {
252         irn_edge_info_t *info = _get_irn_edge_info(tgt, kind);
253         info->out_count += ofs;
254 }
255
256 /**
257  * Verify the edge list of a node, ie. ensure it's a loop:
258  * head -> e_1 -> ... -> e_n -> head
259  */
260 static inline void verify_list_head(ir_node *irn, ir_edge_kind_t kind)
261 {
262         int                    err       = 0;
263         int                    num       = 0;
264         pset                   *lh_set   = pset_new_ptr(16);
265         const struct list_head *head     = _get_irn_outs_head(irn, kind);
266         const struct list_head *pos;
267
268         list_for_each(pos, head) {
269                 if (pset_find_ptr(lh_set, pos)) {
270                         const ir_edge_t *edge = list_entry(pos, ir_edge_t, list);
271
272                         ir_fprintf(stderr, "EDGE Verifier: edge list broken (self loop not to head) for %+F:\n", irn);
273                         fprintf(stderr, "- at list entry %d\n", num);
274                         if (edge->invalid)
275                                 fprintf(stderr, "- edge(%ld) is invalid\n", edge_get_id(edge));
276                         if (edge->src)
277                                 ir_fprintf(stderr, "- edge(%ld) %+F(%d)\n", edge_get_id(edge), edge->src, edge->pos);
278                         err = 1;
279                         break;
280                 }
281                 num++;
282                 pset_insert_ptr(lh_set, pos);
283         }
284
285         del_pset(lh_set);
286
287         assert(err == 0);
288 }
289
290 void edges_dump_kind(ir_graph *irg, ir_edge_kind_t kind)
291 {
292         irg_edge_info_t *info;
293         ir_edgeset_t    *edges;
294         ir_edgeset_iterator_t iter;
295         ir_edge_t      *e;
296
297         if (!edges_activated_kind(irg, kind))
298                 return;
299
300         info  = _get_irg_edge_info(irg, kind);
301         edges = &info->edges;
302         foreach_ir_edgeset(edges, e, iter) {
303                 ir_printf("%+F %d %d\n", e->src, e->pos, e->invalid);
304         }
305 }
306
307 /* The edge from (src, pos) -> old_tgt is redirected to tgt */
308 void edges_notify_edge_kind(ir_node *src, int pos, ir_node *tgt,
309                             ir_node *old_tgt, ir_edge_kind_t kind,
310                             ir_graph *irg)
311 {
312         const char      *msg = "";
313         irg_edge_info_t *info;
314         ir_edgeset_t    *edges;
315         ir_edge_t        templ;
316         ir_edge_t       *edge;
317
318         assert(edges_activated_kind(irg, kind));
319
320         /*
321          * Only do something, if the old and new target differ.
322          */
323         if (tgt == old_tgt)
324                 return;
325
326         info  = _get_irg_edge_info(irg, kind);
327         edges = &info->edges;
328
329         /* Initialize the edge template to search in the set. */
330         templ.src = src;
331         templ.pos = pos;
332
333         /*
334          * If the target is NULL, the edge shall be deleted.
335          */
336         if (tgt == NULL) {
337                 /* search the edge in the set. */
338                 edge = ir_edgeset_find(edges, &templ);
339
340                 /* mark the edge invalid if it was found */
341                 if (edge) {
342                         msg = "deleting";
343                         list_del(&edge->list);
344                         ir_edgeset_remove(edges, edge);
345                         list_add(&edge->list, &info->free_edges);
346                         edge->invalid = 1;
347                         edge->pos = -2;
348                         edge->src = NULL;
349                         edge_change_cnt(old_tgt, kind, -1);
350                 } else {
351                         /* If the edge was not found issue a warning on the debug stream */
352                         msg = "edge to delete not found!\n";
353                 }
354         } else {
355                 /*
356                  * The target is not NULL and the old target differs
357                  * from the new target, the edge shall be moved (if the
358                  * old target was != NULL) or added (if the old target was
359                  * NULL).
360                  */
361                 struct list_head *head = _get_irn_outs_head(tgt, kind);
362
363                 assert(head->next && head->prev &&
364                                 "target list head must have been initialized");
365
366                 /* If the old target is not null, the edge is moved. */
367                 if (old_tgt) {
368                         edge = ir_edgeset_find(edges, &templ);
369                         assert(edge && "edge to redirect not found!");
370                         assert(! edge->invalid && "Invalid edge encountered");
371
372                         msg = "redirecting";
373
374                         list_move(&edge->list, head);
375                         edge_change_cnt(old_tgt, kind, -1);
376                 } else {
377                         /* The old target was NULL, thus, the edge is newly created. */
378                         ir_edge_t *new_edge;
379                         ir_edge_t *edge;
380
381                         if (list_empty(&info->free_edges)) {
382                                 edge = (ir_edge_t*)obstack_alloc(&info->edges_obst, EDGE_SIZE);
383                         } else {
384                                 edge = list_entry(info->free_edges.next, ir_edge_t, list);
385                                 list_del(&edge->list);
386                         }
387
388                         edge->src       = src;
389                         edge->pos       = pos;
390                         edge->invalid   = 0;
391                         edge->present   = 0;
392                         edge->kind      = kind;
393                         edge->list.next = NULL;
394                         edge->list.prev = NULL;
395                         memset(edge + 1, 0, edges_private_size);
396
397                         new_edge = ir_edgeset_insert(edges, edge);
398                         if (new_edge != edge) {
399                                 panic("new edge exists already");
400                         }
401
402                         msg = "adding";
403                         list_add(&edge->list, head);
404                 }
405
406                 edge_change_cnt(tgt, kind, +1);
407         } /* else */
408
409 #ifndef DEBUG_libfirm
410         /* verify list heads */
411         if (edges_dbg) {
412                 if (tgt)
413                         verify_list_head(tgt, kind);
414                 if (old_tgt)
415                         verify_list_head(old_tgt, kind);
416         }
417 #endif
418
419         DBG((dbg, LEVEL_5, "announce out edge: %+F %d-> %+F(%+F): %s\n", src, pos, tgt, old_tgt, msg));
420 }
421
422 void edges_notify_edge(ir_node *src, int pos, ir_node *tgt, ir_node *old_tgt,
423                        ir_graph *irg)
424 {
425         if (edges_activated_kind(irg, EDGE_KIND_NORMAL)) {
426                 edges_notify_edge_kind(src, pos, tgt, old_tgt, EDGE_KIND_NORMAL, irg);
427         }
428
429         if (edges_activated_kind(irg, EDGE_KIND_BLOCK) && is_Block(src)) {
430                 ir_node *bl_old = old_tgt ? get_nodes_block(skip_Proj(old_tgt)) : NULL;
431                 ir_node *bl_tgt = NULL;
432
433                 if (tgt)
434                         bl_tgt = is_Bad(tgt) ? tgt : get_nodes_block(skip_Proj(tgt));
435
436                 edges_notify_edge_kind(src, pos, bl_tgt, bl_old, EDGE_KIND_BLOCK, irg);
437         }
438 }
439
440 /**
441  * Delete all in edges of a given kind from the node old.
442  *
443  * @param old   the node
444  * @param kind  the kind of edges to remove
445  * @param irg   the irg of the old node
446  */
447 static void edges_node_deleted_kind(ir_node *old, ir_edge_kind_t kind)
448 {
449         int i, n;
450         ir_graph *irg = get_irn_irg(old);
451
452         if (!edges_activated_kind(irg, kind))
453                 return;
454
455         DBG((dbg, LEVEL_5, "node deleted (kind: %s): %+F\n", get_kind_str(kind), old));
456
457         foreach_tgt(old, i, n, kind) {
458                 ir_node *old_tgt = get_n(old, i, kind);
459                 edges_notify_edge_kind(old, i, NULL, old_tgt, kind, irg);
460         }
461 }
462
463 /**
464  * A node might be revivaled by CSE. Assure its edges.
465  *
466  * @param irn   the node
467  * @param kind  the kind of edges to remove
468  * @param irg   the irg of the old node
469  */
470 static void edges_node_revival_kind(ir_node *irn, ir_edge_kind_t kind)
471 {
472         irn_edge_info_t *info;
473         int             i, n;
474         ir_graph        *irg = get_irn_irg(irn);
475
476         if (!edges_activated_kind(irg, kind))
477                 return;
478
479         info = _get_irn_edge_info(irn, kind);
480         if (info->edges_built)
481                 return;
482
483         DBG((dbg, LEVEL_5, "node revivaled (kind: %s): %+F\n", get_kind_str(kind), irn));
484
485         foreach_tgt(irn, i, n, kind) {
486                 ir_node *tgt = get_n(irn, i, kind);
487                 edges_notify_edge_kind(irn, i, tgt, NULL, kind, irg);
488         }
489         info->edges_built = 1;
490 }
491
492 typedef struct build_walker {
493         ir_edge_kind_t kind;
494         bitset_t       *reachable;
495         unsigned       problem_found;
496 } build_walker;
497
498 /**
499  * Post-Walker: notify all edges
500  */
501 static void build_edges_walker(ir_node *irn, void *data)
502 {
503         build_walker          *w = (build_walker*)data;
504         int                   i, n;
505         ir_edge_kind_t        kind = w->kind;
506         ir_graph              *irg = get_irn_irg(irn);
507         get_edge_src_n_func_t *get_n;
508
509         get_n = edge_kind_info[kind].get_n;
510         foreach_tgt(irn, i, n, kind) {
511                 ir_node *pred = get_n(irn, i, kind);
512                 edges_notify_edge_kind(irn, i, pred, NULL, kind, irg);
513         }
514         _get_irn_edge_info(irn, kind)->edges_built = 1;
515 }
516
517 /**
518  * Pre-Walker: initializes the list-heads and set the out-count
519  * of all nodes to 0.
520  */
521 static void init_lh_walker(ir_node *irn, void *data)
522 {
523         build_walker   *w    = (build_walker*)data;
524         ir_edge_kind_t  kind = w->kind;
525         list_head      *head = _get_irn_outs_head(irn, kind);
526         INIT_LIST_HEAD(head);
527         _get_irn_edge_info(irn, kind)->edges_built = 0;
528         _get_irn_edge_info(irn, kind)->out_count   = 0;
529 }
530
531 /**
532  * Pre-Walker: initializes the list-heads and set the out-count
533  * of all nodes to 0.
534  *
535  * Additionally touches DEP nodes, as they might be DEAD.
536  * THIS IS UGLY, but I don't find a better way until we
537  *
538  * a) ensure that dead nodes are not used as input
539  * b) it might be sufficient to add those stupid NO_REG nodes
540  * to the anchor
541  */
542 static void init_lh_walker_dep(ir_node *irn, void *data)
543 {
544         build_walker   *w    = (build_walker*)data;
545         ir_edge_kind_t  kind = w->kind;
546         list_head      *head = _get_irn_outs_head(irn, kind);
547         int             i;
548
549         INIT_LIST_HEAD(head);
550         _get_irn_edge_info(irn, kind)->edges_built = 0;
551         _get_irn_edge_info(irn, kind)->out_count   = 0;
552
553         for (i = get_irn_deps(irn) - 1; i >= 0; --i) {
554                 ir_node *dep = get_irn_dep(irn, i);
555
556                 head = _get_irn_outs_head(dep, kind);
557
558                 INIT_LIST_HEAD(head);
559                 _get_irn_edge_info(dep, kind)->edges_built = 0;
560                 _get_irn_edge_info(dep, kind)->out_count   = 0;
561         }
562 }
563
564 typedef struct visitor_info_t {
565         irg_walk_func *visit;
566         void *data;
567 } visitor_info_t;
568
569 /**
570  * Visitor: initializes the list-heads and set the out-count
571  * of all nodes to 0 of nodes that are not seen so far.
572  */
573 static void visitor(ir_node *irn, void *data)
574 {
575         visitor_info_t *info = (visitor_info_t*)data;
576
577         if (is_Deleted(irn))
578                 return;
579
580         if (!irn_visited_else_mark(irn)) {
581                 info->visit(irn, info->data);
582         }
583 }
584
585 /*
586  * Build the initial edge set.
587  * Beware, this is not a simple task because it suffers from two
588  * difficulties:
589  * - the anchor set allows access to Nodes that may not be reachable from
590  *   the End node
591  * - the identities add nodes to the "root set" that are not yet reachable
592  *   from End. However, after some transformations, the CSE may revival these
593  *   nodes
594  *
595  * These problems can be fixed using different strategies:
596  * - Add an age flag to every node. Whenever the edge of a node is older
597  *   then the current edge, invalidate the edges of this node.
598  *   While this would help for revivaled nodes, it increases memory and runtime.
599  * - Delete the identities set.
600  *   Solves the revival problem, but may increase the memory consumption, as
601  *   nodes cannot be revivaled at all.
602  * - Manually iterate over the identities root set. This did not consume more memory
603  *   but increase the computation time because the |identities| >= |V|
604  *
605  * Currently, we use the last option.
606  */
607 void edges_activate_kind(ir_graph *irg, ir_edge_kind_t kind)
608 {
609         struct build_walker w;
610         irg_edge_info_t     *info = _get_irg_edge_info(irg, kind);
611         visitor_info_t      visit;
612
613         w.kind = kind;
614
615         visit.data = &w;
616
617         assert(!info->activated);
618
619         info->activated = 1;
620         edges_init_graph_kind(irg, kind);
621         if (kind == EDGE_KIND_DEP) {
622                 irg_walk_anchors(irg, init_lh_walker_dep, NULL, &w);
623                 /* Argh: Dep nodes might be dead, so we MUST visit identities first */
624                 visit.visit = init_lh_walker_dep;
625                 visit_all_identities(irg, visitor, &visit);
626                 irg_walk_anchors(irg, NULL, build_edges_walker, &w);
627         } else {
628                 irg_walk_anchors(irg, init_lh_walker, build_edges_walker, &w);
629                 visit.visit = init_lh_walker;
630                 visit_all_identities(irg, visitor, &visit);
631         }
632 }
633
634 void edges_deactivate_kind(ir_graph *irg, ir_edge_kind_t kind)
635 {
636         irg_edge_info_t *info = _get_irg_edge_info(irg, kind);
637
638         info->activated = 0;
639         if (info->allocated) {
640                 obstack_free(&info->edges_obst, NULL);
641                 ir_edgeset_destroy(&info->edges);
642                 info->allocated = 0;
643         }
644 }
645
646 int (edges_activated_kind)(const ir_graph *irg, ir_edge_kind_t kind)
647 {
648         return _edges_activated_kind(irg, kind);
649 }
650
651
652 /**
653  * Reroute all use-edges from a node to another.
654  * @param from The node whose use-edges shall be withdrawn.
655  * @param to   The node to which all the use-edges of @p from shall be
656  *             sent to.
657  * @param irg  The graph.
658  */
659 void edges_reroute_kind(ir_node *from, ir_node *to, ir_edge_kind_t kind)
660 {
661         ir_graph *irg = get_irn_irg(from);
662         set_edge_func_t *set_edge = edge_kind_info[kind].set_edge;
663
664         if (set_edge && edges_activated_kind(irg, kind)) {
665                 struct list_head *head = _get_irn_outs_head(from, kind);
666
667                 DBG((dbg, LEVEL_5, "reroute from %+F to %+F\n", from, to));
668
669                 while (head != head->next) {
670                         ir_edge_t *edge = list_entry(head->next, ir_edge_t, list);
671                         assert(edge->pos >= -1);
672                         set_edge(edge->src, edge->pos, to);
673                 }
674         }
675 }
676
677 static void verify_set_presence(ir_node *irn, void *data)
678 {
679         build_walker *w     = (build_walker*)data;
680         ir_graph     *irg   = get_irn_irg(irn);
681         ir_edgeset_t *edges = &_get_irg_edge_info(irg, w->kind)->edges;
682         int i, n;
683
684         foreach_tgt(irn, i, n, w->kind) {
685                 ir_edge_t templ, *e;
686
687                 templ.src = irn;
688                 templ.pos = i;
689
690                 e = ir_edgeset_find(edges, &templ);
691                 if (e != NULL) {
692                         e->present = 1;
693                 } else {
694                         w->problem_found = 1;
695                 }
696         }
697 }
698
699 static void verify_list_presence(ir_node *irn, void *data)
700 {
701         build_walker    *w = (build_walker*)data;
702         const ir_edge_t *e;
703
704         bitset_set(w->reachable, get_irn_idx(irn));
705
706         /* check list heads */
707         verify_list_head(irn, w->kind);
708
709         foreach_out_edge_kind(irn, e, w->kind) {
710                 ir_node *tgt;
711
712                 if (w->kind == EDGE_KIND_NORMAL && get_irn_arity(e->src) <= e->pos) {
713                         w->problem_found = 1;
714                         continue;
715                 }
716
717                 tgt = get_n(e->src, e->pos, w->kind);
718
719                 if (irn != tgt) {
720                         w->problem_found = 1;
721                 }
722         }
723 }
724
725 int edges_verify_kind(ir_graph *irg, ir_edge_kind_t kind)
726 {
727         struct build_walker w;
728         ir_edgeset_t        *edges = &_get_irg_edge_info(irg, kind)->edges;
729         ir_edge_t           *e;
730         ir_edgeset_iterator_t  iter;
731
732         w.kind          = kind;
733         w.reachable     = bitset_alloca(get_irg_last_idx(irg));
734         w.problem_found = 0;
735
736         /* Clear the present bit in all edges available. */
737         foreach_ir_edgeset(edges, e, iter) {
738                 e->present = 0;
739         }
740
741         irg_walk_graph(irg, verify_set_presence, verify_list_presence, &w);
742
743         /*
744          * Dump all edges which are not invalid and not present.
745          * These edges are superfluous and their presence in the
746          * edge set is wrong.
747          */
748         foreach_ir_edgeset(edges, e, iter) {
749                 if (! e->invalid && ! e->present && bitset_is_set(w.reachable, get_irn_idx(e->src))) {
750                         w.problem_found = 1;
751                         ir_fprintf(stderr, "Edge Verifier: edge(%ld) %+F,%d is superfluous\n", edge_get_id(e), e->src, e->pos);
752                 }
753         }
754
755         return w.problem_found;
756 }
757
758 #define IGNORE_NODE(irn) (is_Bad((irn)) || is_Block((irn)))
759
760 /**
761  * Clear link field of all nodes.
762  */
763 static void clear_links(ir_node *irn, void *env)
764 {
765         bitset_t     *bs;
766         ir_graph     *irg;
767         (void) env;
768
769         if (IGNORE_NODE(irn)) {
770                 set_irn_link(irn, NULL);
771                 return;
772         }
773
774         irg = get_irn_irg(irn);
775         bs  = bitset_malloc(get_irg_last_idx(irg));
776         set_irn_link(irn, bs);
777 }
778
779 /**
780  * Increases count (stored in link field) for all operands of a node.
781  */
782 static void count_user(ir_node *irn, void *env)
783 {
784         int i;
785         int first;
786         (void) env;
787
788         first = is_Block(irn) ? 0 : -1;
789         for (i = get_irn_arity(irn) - 1; i >= first; --i) {
790                 ir_node  *op = get_irn_n(irn, i);
791                 bitset_t *bs = (bitset_t*)get_irn_link(op);
792
793                 if (bs)
794                         bitset_set(bs, get_irn_idx(irn));
795         }
796 }
797
798 /**
799  * Verifies if collected count, number of edges in list and stored edge count are in sync.
800  */
801 static void verify_edge_counter(ir_node *irn, void *env)
802 {
803         build_walker           *w = (build_walker*)env;
804         bitset_t               *bs;
805         int                    list_cnt;
806         int                    ref_cnt;
807         int                    edge_cnt;
808         size_t                 idx;
809         const struct list_head *head;
810         const struct list_head *pos;
811         ir_graph               *irg;
812
813         if (IGNORE_NODE(irn))
814                 return;
815
816         bs       = (bitset_t*)get_irn_link(irn);
817         list_cnt = 0;
818         ref_cnt  = 0;
819         edge_cnt = _get_irn_edge_info(irn, EDGE_KIND_NORMAL)->out_count;
820         head     = _get_irn_outs_head(irn, EDGE_KIND_NORMAL);
821
822         /* We can iterate safely here, list heads have already been verified. */
823         list_for_each(pos, head) {
824                 ++list_cnt;
825         }
826
827         /* check all nodes that reference us and count edges that point number
828          * of ins that actually point to us */
829         irg = get_irn_irg(irn);
830         ref_cnt = 0;
831         bitset_foreach(bs, idx) {
832                 int i, arity;
833                 ir_node *src = get_idx_irn(irg, idx);
834
835                 arity = get_irn_arity(src);
836                 for (i = 0; i < arity; ++i) {
837                         ir_node *in = get_irn_n(src, i);
838                         if (in == irn)
839                                 ++ref_cnt;
840                 }
841         }
842
843         if (edge_cnt != list_cnt) {
844                 w->problem_found = 1;
845                 ir_fprintf(stderr, "Edge Verifier: edge count is %d, but %d edge(s) are recorded in list at %+F\n",
846                         edge_cnt, list_cnt, irn);
847         }
848
849         if (ref_cnt != list_cnt) {
850                 w->problem_found = 1;
851                 ir_fprintf(stderr, "Edge Verifier: %+F reachable by %d node(s), but the list contains %d edge(s)\n",
852                         irn, ref_cnt, list_cnt);
853         }
854
855         bitset_free(bs);
856 }
857
858 /**
859  * Verifies the out edges of an irg.
860  */
861 int edges_verify(ir_graph *irg)
862 {
863         struct build_walker w;
864         int    problem_found = 0;
865
866         /* verify normal edges only */
867         problem_found  = edges_verify_kind(irg, EDGE_KIND_NORMAL);
868
869         w.kind          = EDGE_KIND_NORMAL;
870         w.problem_found = 0;
871
872         /* verify counter */
873         irg_walk_anchors(irg, clear_links, count_user, &w);
874         irg_walk_anchors(irg, NULL, verify_edge_counter, &w);
875
876         return problem_found ? 1 : w.problem_found;
877 }
878
879 typedef struct pass_t {
880         ir_graph_pass_t pass;
881         unsigned        assert_on_problem;
882 } pass_t;
883
884 /**
885  * Wrapper to edges_verify to be run as an ir_graph pass.
886  */
887 static int edges_verify_wrapper(ir_graph *irg, void *context)
888 {
889         pass_t *pass           = (pass_t*)context;
890         int     problems_found = edges_verify(irg);
891         /* do NOT rerun the pass if verify is ok :-) */
892         assert(problems_found && pass->assert_on_problem);
893         return 0;
894 }
895
896 /* Creates an ir_graph pass for edges_verify(). */
897 ir_graph_pass_t *irg_verify_edges_pass(const char *name, unsigned assert_on_problem)
898 {
899         pass_t *pass = XMALLOCZ(pass_t);
900
901         def_graph_pass_constructor(
902                 &pass->pass, name ? name : "edges_verify", edges_verify_wrapper);
903
904         /* neither dump nor verify */
905         pass->pass.dump_irg   = (DUMP_ON_IRG_FUNC)ir_prog_no_dump;
906         pass->pass.verify_irg = (RUN_ON_IRG_FUNC)ir_prog_no_verify;
907
908         pass->assert_on_problem = assert_on_problem;
909         return &pass->pass;
910 }
911
912 void init_edges(void)
913 {
914         FIRM_DBG_REGISTER(dbg, DBG_EDGES);
915 }
916
917 void edges_init_dbg(int do_dbg)
918 {
919         edges_dbg = do_dbg;
920 }
921
922 void edges_activate(ir_graph *irg)
923 {
924         edges_activate_kind(irg, EDGE_KIND_NORMAL);
925         edges_activate_kind(irg, EDGE_KIND_BLOCK);
926         if (get_irg_phase_state(irg) == phase_backend)
927                 edges_activate_kind(irg, EDGE_KIND_DEP);
928 }
929
930 void edges_deactivate(ir_graph *irg)
931 {
932         if (get_irg_phase_state(irg) == phase_backend)
933                 edges_deactivate_kind(irg, EDGE_KIND_DEP);
934         edges_deactivate_kind(irg, EDGE_KIND_BLOCK);
935         edges_deactivate_kind(irg, EDGE_KIND_NORMAL);
936 }
937
938 int edges_assure(ir_graph *irg)
939 {
940         int activated = 0;
941
942         if (edges_activated_kind(irg, EDGE_KIND_BLOCK)) {
943                 activated = 1;
944         } else {
945                 edges_activate_kind(irg, EDGE_KIND_BLOCK);
946         }
947         if (edges_activated_kind(irg, EDGE_KIND_NORMAL)) {
948                 activated = 1;
949         } else {
950                 edges_activate_kind(irg, EDGE_KIND_NORMAL);
951         }
952
953         return activated;
954 }
955
956 int edges_assure_kind(ir_graph *irg, ir_edge_kind_t kind)
957 {
958         int activated = edges_activated_kind(irg, kind);
959
960         if (!activated)
961                 edges_activate_kind(irg, kind);
962
963         return activated;
964 }
965
966 void edges_node_deleted(ir_node *irn)
967 {
968         edges_node_deleted_kind(irn, EDGE_KIND_NORMAL);
969         edges_node_deleted_kind(irn, EDGE_KIND_BLOCK);
970 }
971
972 void edges_node_revival(ir_node *irn)
973 {
974         edges_node_revival_kind(irn, EDGE_KIND_NORMAL);
975         edges_node_revival_kind(irn, EDGE_KIND_BLOCK);
976 }
977
978 const ir_edge_t *(get_irn_out_edge_first_kind)(const ir_node *irn, ir_edge_kind_t kind)
979 {
980         return _get_irn_out_edge_first_kind(irn, kind);
981 }
982
983 const ir_edge_t *(get_irn_out_edge_next)(const ir_node *irn, const ir_edge_t *last)
984 {
985         return _get_irn_out_edge_next(irn, last);
986 }
987
988 ir_node *(get_edge_src_irn)(const ir_edge_t *edge)
989 {
990         return _get_edge_src_irn(edge);
991 }
992
993 int (get_edge_src_pos)(const ir_edge_t *edge)
994 {
995         return _get_edge_src_pos(edge);
996 }
997
998 int (get_irn_n_edges_kind)(const ir_node *irn, ir_edge_kind_t kind)
999 {
1000         return _get_irn_n_edges_kind(irn, kind);
1001 }
1002
1003 static void irg_walk_edges2(ir_node *node, irg_walk_func *pre,
1004                             irg_walk_func *post, void *env)
1005 {
1006         const ir_edge_t *edge, *next;
1007
1008         if (irn_visited_else_mark(node))
1009                 return;
1010
1011         if (pre != NULL)
1012                 pre(node, env);
1013
1014         foreach_out_edge_kind_safe(node, edge, next, EDGE_KIND_NORMAL) {
1015                 /* find the corresponding successor block. */
1016                 ir_node *pred = get_edge_src_irn(edge);
1017                 irg_walk_edges2(pred, pre, post, env);
1018         }
1019
1020         if (post != NULL)
1021                 post(node, env);
1022 }
1023
1024 void irg_walk_edges(ir_node *node, irg_walk_func *pre, irg_walk_func *post,
1025                     void *env)
1026 {
1027         ir_graph *irg = get_irn_irg(node);
1028
1029         assert(edges_activated(irg));
1030         assert(is_Block(node));
1031
1032         ir_reserve_resources(irg, IR_RESOURCE_IRN_VISITED);
1033
1034         inc_irg_visited(irg);
1035         irg_walk_edges2(node, pre, post, env);
1036
1037         ir_free_resources(irg, IR_RESOURCE_IRN_VISITED);
1038 }
1039
1040 static void irg_block_edges_walk2(ir_node *bl, irg_walk_func *pre,
1041                                   irg_walk_func *post, void *env)
1042 {
1043         const ir_edge_t *edge, *next;
1044
1045         if (!Block_block_visited(bl)) {
1046                 mark_Block_block_visited(bl);
1047
1048                 if (pre)
1049                         pre(bl, env);
1050
1051                 foreach_out_edge_kind_safe(bl, edge, next, EDGE_KIND_BLOCK) {
1052                         /* find the corresponding successor block. */
1053                         ir_node *pred = get_edge_src_irn(edge);
1054                         irg_block_edges_walk2(pred, pre, post, env);
1055                 }
1056
1057                 if (post)
1058                         post(bl, env);
1059         }
1060 }
1061
1062 void irg_block_edges_walk(ir_node *node, irg_walk_func *pre,
1063                           irg_walk_func *post, void *env)
1064 {
1065         ir_graph *irg = get_irn_irg(node);
1066
1067         assert(edges_activated(irg));
1068         assert(is_Block(node));
1069
1070         ir_reserve_resources(irg, IR_RESOURCE_BLOCK_VISITED);
1071
1072         inc_irg_block_visited(irg);
1073         irg_block_edges_walk2(node, pre, post, env);
1074
1075         ir_free_resources(irg, IR_RESOURCE_BLOCK_VISITED);
1076 }