started adding a relation to the Cmp node
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  * @version $Id$
25  */
26 #include "config.h"
27
28 #include <string.h>
29
30 #include "pset_new.h"
31 #include "ident.h"
32 #include "irnode_t.h"
33 #include "irgraph_t.h"
34 #include "irmode_t.h"
35 #include "irbackedge_t.h"
36 #include "irdump.h"
37 #include "irop_t.h"
38 #include "irprog_t.h"
39 #include "iredgekinds.h"
40 #include "iredges_t.h"
41 #include "ircons.h"
42 #include "error.h"
43
44 #include "irhooks.h"
45 #include "irtools.h"
46 #include "util.h"
47
48 #include "beinfo.h"
49
50 /* some constants fixing the positions of nodes predecessors
51    in the in array */
52 #define CALL_PARAM_OFFSET     2
53 #define BUILDIN_PARAM_OFFSET  1
54 #define SEL_INDEX_OFFSET      2
55 #define RETURN_RESULT_OFFSET  1  /* mem is not a result */
56 #define END_KEEPALIVE_OFFSET  0
57
58 static const char *relation_names [] = {
59         "false",
60         "equal",
61         "less",
62         "less_equal",
63         "greater",
64         "greater_equal",
65         "less_greater",
66         "less_equal_greater",
67         "unordered",
68         "unordered_equal",
69         "unordered_less",
70         "unordered_less_equal",
71         "unordered_greater",
72         "unordered_greater_equal",
73         "not_equal",
74         "true"
75 };
76
77 const char *get_relation_string(ir_relation relation)
78 {
79         assert(relation < (ir_relation)ARRAY_SIZE(relation_names));
80         return relation_names[relation];
81 }
82
83 ir_relation get_negated_relation(ir_relation relation)
84 {
85         return relation ^ ir_relation_true;
86 }
87
88 ir_relation get_inversed_relation(ir_relation relation)
89 {
90         ir_relation code    = relation & ~(ir_relation_less|ir_relation_greater);
91         bool        less    = relation & ir_relation_less;
92         bool        greater = relation & ir_relation_greater;
93         code |= (less ? ir_relation_greater : 0) | (greater ? ir_relation_less : 0);
94         return code;
95 }
96
97 /**
98  * Indicates, whether additional data can be registered to ir nodes.
99  * If set to 1, this is not possible anymore.
100  */
101 static int forbid_new_data = 0;
102
103 /**
104  * The amount of additional space for custom data to be allocated upon
105  * creating a new node.
106  */
107 unsigned firm_add_node_size = 0;
108
109
110 /* register new space for every node */
111 unsigned firm_register_additional_node_data(unsigned size)
112 {
113         assert(!forbid_new_data && "Too late to register additional node data");
114
115         if (forbid_new_data)
116                 return 0;
117
118         return firm_add_node_size += size;
119 }
120
121
122 void init_irnode(void)
123 {
124         /* Forbid the addition of new data to an ir node. */
125         forbid_new_data = 1;
126 }
127
128 struct struct_align {
129         char c;
130         struct s {
131                 int i;
132                 float f;
133                 double d;
134         } s;
135 };
136
137 /*
138  * irnode constructor.
139  * Create a new irnode in irg, with an op, mode, arity and
140  * some incoming irnodes.
141  * If arity is negative, a node with a dynamic array is created.
142  */
143 ir_node *new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op,
144                      ir_mode *mode, int arity, ir_node *const *in)
145 {
146         ir_node *res;
147         unsigned align = offsetof(struct struct_align, s) - 1;
148         unsigned add_node_size = (firm_add_node_size + align) & ~align;
149         size_t node_size = offsetof(ir_node, attr) + op->attr_size + add_node_size;
150         char *p;
151         int i;
152
153         assert(irg);
154         assert(op);
155         assert(mode);
156         p = (char*)obstack_alloc(irg->obst, node_size);
157         memset(p, 0, node_size);
158         res = (ir_node *)(p + add_node_size);
159
160         res->kind     = k_ir_node;
161         res->op       = op;
162         res->mode     = mode;
163         res->visited  = 0;
164         res->node_idx = irg_register_node_idx(irg, res);
165         res->link     = NULL;
166         res->deps     = NULL;
167
168         if (arity < 0) {
169                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
170         } else {
171                 /* not nice but necessary: End and Sync must always have a flexible array */
172                 if (op == op_End || op == op_Sync)
173                         res->in = NEW_ARR_F(ir_node *, (arity+1));
174                 else
175                         res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
176                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
177         }
178
179         res->in[0]   = block;
180         set_irn_dbg_info(res, db);
181         res->out     = NULL;
182         res->node_nr = get_irp_new_node_nr();
183
184         for (i = 0; i < EDGE_KIND_LAST; ++i) {
185                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
186                 /* edges will be build immediately */
187                 res->edge_info[i].edges_built = 1;
188                 res->edge_info[i].out_count = 0;
189         }
190
191         /* don't put this into the for loop, arity is -1 for some nodes! */
192         edges_notify_edge(res, -1, res->in[0], NULL, irg);
193         for (i = 1; i <= arity; ++i)
194                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
195
196         hook_new_node(irg, res);
197         if (get_irg_phase_state(irg) == phase_backend) {
198                 be_info_new_node(res);
199         }
200
201         return res;
202 }
203
204 /*-- getting some parameters from ir_nodes --*/
205
206 int (is_ir_node)(const void *thing)
207 {
208         return _is_ir_node(thing);
209 }
210
211 int (get_irn_arity)(const ir_node *node)
212 {
213         return _get_irn_arity(node);
214 }
215
216 /* Returns the array with ins. This array is shifted with respect to the
217    array accessed by get_irn_n: The block operand is at position 0 not -1.
218    (@@@ This should be changed.)
219    The order of the predecessors in this array is not guaranteed, except that
220    lists of operands as predecessors of Block or arguments of a Call are
221    consecutive. */
222 ir_node **get_irn_in(const ir_node *node)
223 {
224         return node->in;
225 }
226
227 void set_irn_in(ir_node *node, int arity, ir_node **in)
228 {
229         int i;
230         ir_node *** pOld_in;
231         ir_graph *irg = get_irn_irg(node);
232
233         pOld_in = &node->in;
234
235
236         for (i = 0; i < arity; i++) {
237                 if (i < (int)ARR_LEN(*pOld_in)-1)
238                         edges_notify_edge(node, i, in[i], (*pOld_in)[i+1], irg);
239                 else
240                         edges_notify_edge(node, i, in[i], NULL,            irg);
241         }
242         for (;i < (int)ARR_LEN(*pOld_in)-1; i++) {
243                 edges_notify_edge(node, i, NULL, (*pOld_in)[i+1], irg);
244         }
245
246         if (arity != (int)ARR_LEN(*pOld_in) - 1) {
247                 ir_node * block = (*pOld_in)[0];
248                 *pOld_in = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
249                 (*pOld_in)[0] = block;
250         }
251         fix_backedges(irg->obst, node);
252
253         memcpy((*pOld_in) + 1, in, sizeof(ir_node *) * arity);
254 }
255
256 ir_node *(get_irn_n)(const ir_node *node, int n)
257 {
258         return _get_irn_n(node, n);
259 }
260
261 void set_irn_n(ir_node *node, int n, ir_node *in)
262 {
263         ir_graph *irg = get_irn_irg(node);
264         assert(node && node->kind == k_ir_node);
265         assert(-1 <= n);
266         assert(n < get_irn_arity(node));
267         assert(in && in->kind == k_ir_node);
268
269         /* Call the hook */
270         hook_set_irn_n(node, n, in, node->in[n + 1]);
271
272         /* Here, we rely on src and tgt being in the current ir graph */
273         edges_notify_edge(node, n, in, node->in[n + 1], irg);
274
275         node->in[n + 1] = in;
276 }
277
278 int add_irn_n(ir_node *node, ir_node *in)
279 {
280         int pos;
281         ir_graph *irg = get_irn_irg(node);
282
283         assert(node->op->opar == oparity_dynamic);
284         pos = ARR_LEN(node->in) - 1;
285         ARR_APP1(ir_node *, node->in, in);
286         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
287
288         /* Call the hook */
289         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
290
291         return pos;
292 }
293
294 void del_Sync_n(ir_node *n, int i)
295 {
296         int      arity     = get_Sync_n_preds(n);
297         ir_node *last_pred = get_Sync_pred(n, arity - 1);
298         set_Sync_pred(n, i, last_pred);
299         edges_notify_edge(n, arity - 1, NULL, last_pred, get_irn_irg(n));
300         ARR_SHRINKLEN(get_irn_in(n), arity);
301 }
302
303 int (get_irn_deps)(const ir_node *node)
304 {
305         return _get_irn_deps(node);
306 }
307
308 ir_node *(get_irn_dep)(const ir_node *node, int pos)
309 {
310         return _get_irn_dep(node, pos);
311 }
312
313 void (set_irn_dep)(ir_node *node, int pos, ir_node *dep)
314 {
315         _set_irn_dep(node, pos, dep);
316 }
317
318 int add_irn_dep(ir_node *node, ir_node *dep)
319 {
320         int res = 0;
321
322         /* DEP edges are only allowed in backend phase */
323         assert(get_irg_phase_state(get_irn_irg(node)) == phase_backend);
324         if (node->deps == NULL) {
325                 node->deps = NEW_ARR_F(ir_node *, 1);
326                 node->deps[0] = dep;
327         } else {
328                 int i, n;
329                 int first_zero = -1;
330
331                 for (i = 0, n = ARR_LEN(node->deps); i < n; ++i) {
332                         if (node->deps[i] == NULL)
333                                 first_zero = i;
334
335                         if (node->deps[i] == dep)
336                                 return i;
337                 }
338
339                 if (first_zero >= 0) {
340                         node->deps[first_zero] = dep;
341                         res = first_zero;
342                 } else {
343                         ARR_APP1(ir_node *, node->deps, dep);
344                         res = n;
345                 }
346         }
347
348         edges_notify_edge_kind(node, res, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
349
350         return res;
351 }
352
353 void add_irn_deps(ir_node *tgt, ir_node *src)
354 {
355         int i, n;
356
357         for (i = 0, n = get_irn_deps(src); i < n; ++i)
358                 add_irn_dep(tgt, get_irn_dep(src, i));
359 }
360
361
362 ir_mode *(get_irn_mode)(const ir_node *node)
363 {
364         return _get_irn_mode(node);
365 }
366
367 void (set_irn_mode)(ir_node *node, ir_mode *mode)
368 {
369         _set_irn_mode(node, mode);
370 }
371
372 ir_op *(get_irn_op)(const ir_node *node)
373 {
374         return _get_irn_op(node);
375 }
376
377 /* should be private to the library: */
378 void (set_irn_op)(ir_node *node, ir_op *op)
379 {
380         _set_irn_op(node, op);
381 }
382
383 unsigned (get_irn_opcode)(const ir_node *node)
384 {
385         return _get_irn_opcode(node);
386 }
387
388 const char *get_irn_opname(const ir_node *node)
389 {
390         assert(node);
391         if (is_Phi0(node)) return "Phi0";
392         return get_id_str(node->op->name);
393 }
394
395 ident *get_irn_opident(const ir_node *node)
396 {
397         assert(node);
398         return node->op->name;
399 }
400
401 ir_visited_t (get_irn_visited)(const ir_node *node)
402 {
403         return _get_irn_visited(node);
404 }
405
406 void (set_irn_visited)(ir_node *node, ir_visited_t visited)
407 {
408         _set_irn_visited(node, visited);
409 }
410
411 void (mark_irn_visited)(ir_node *node)
412 {
413         _mark_irn_visited(node);
414 }
415
416 int (irn_visited)(const ir_node *node)
417 {
418         return _irn_visited(node);
419 }
420
421 int (irn_visited_else_mark)(ir_node *node)
422 {
423         return _irn_visited_else_mark(node);
424 }
425
426 void (set_irn_link)(ir_node *node, void *link)
427 {
428         _set_irn_link(node, link);
429 }
430
431 void *(get_irn_link)(const ir_node *node)
432 {
433         return _get_irn_link(node);
434 }
435
436 op_pin_state (get_irn_pinned)(const ir_node *node)
437 {
438         return _get_irn_pinned(node);
439 }
440
441 op_pin_state (is_irn_pinned_in_irg) (const ir_node *node)
442 {
443         return _is_irn_pinned_in_irg(node);
444 }
445
446 void set_irn_pinned(ir_node *node, op_pin_state state)
447 {
448         /* due to optimization an opt may be turned into a Tuple */
449         if (is_Tuple(node))
450                 return;
451
452         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
453         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
454
455         node->attr.except.pin_state = state;
456 }
457
458 /* Outputs a unique number for this node */
459 long get_irn_node_nr(const ir_node *node)
460 {
461         assert(node);
462         return node->node_nr;
463 }
464
465 void *(get_irn_generic_attr)(ir_node *node)
466 {
467         assert(is_ir_node(node));
468         return _get_irn_generic_attr(node);
469 }
470
471 const void *(get_irn_generic_attr_const)(const ir_node *node)
472 {
473         assert(is_ir_node(node));
474         return _get_irn_generic_attr_const(node);
475 }
476
477 unsigned (get_irn_idx)(const ir_node *node)
478 {
479         assert(is_ir_node(node));
480         return _get_irn_idx(node);
481 }
482
483 int get_irn_pred_pos(ir_node *node, ir_node *arg)
484 {
485         int i;
486         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
487                 if (get_irn_n(node, i) == arg)
488                         return i;
489         }
490         return -1;
491 }
492
493 /** manipulate fields of individual nodes **/
494
495 ir_node *(get_nodes_block)(const ir_node *node)
496 {
497         return _get_nodes_block(node);
498 }
499
500 void set_nodes_block(ir_node *node, ir_node *block)
501 {
502         assert(node->op != op_Block);
503         set_irn_n(node, -1, block);
504 }
505
506 /* Test whether arbitrary node is frame pointer, i.e. Proj(pn_Start_P_frame_base)
507  * from Start.  If so returns frame type, else Null. */
508 ir_type *is_frame_pointer(const ir_node *n)
509 {
510         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
511                 ir_node *start = get_Proj_pred(n);
512                 if (is_Start(start)) {
513                         return get_irg_frame_type(get_irn_irg(start));
514                 }
515         }
516         return NULL;
517 }
518
519 /* Test whether arbitrary node is tls pointer, i.e. Proj(pn_Start_P_tls)
520  * from Start.  If so returns tls type, else Null. */
521 ir_type *is_tls_pointer(const ir_node *n)
522 {
523         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_tls)) {
524                 ir_node *start = get_Proj_pred(n);
525                 if (is_Start(start)) {
526                         return get_tls_type();
527                 }
528         }
529         return NULL;
530 }
531
532 ir_node **get_Block_cfgpred_arr(ir_node *node)
533 {
534         assert(is_Block(node));
535         return (ir_node **)&(get_irn_in(node)[1]);
536 }
537
538 int (get_Block_n_cfgpreds)(const ir_node *node)
539 {
540         return _get_Block_n_cfgpreds(node);
541 }
542
543 ir_node *(get_Block_cfgpred)(const ir_node *node, int pos)
544 {
545         return _get_Block_cfgpred(node, pos);
546 }
547
548 void set_Block_cfgpred(ir_node *node, int pos, ir_node *pred)
549 {
550         assert(is_Block(node));
551         set_irn_n(node, pos, pred);
552 }
553
554 int get_Block_cfgpred_pos(const ir_node *block, const ir_node *pred)
555 {
556         int i;
557
558         for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
559                 if (get_Block_cfgpred_block(block, i) == pred)
560                         return i;
561         }
562         return -1;
563 }
564
565 ir_node *(get_Block_cfgpred_block)(const ir_node *node, int pos)
566 {
567         return _get_Block_cfgpred_block(node, pos);
568 }
569
570 int get_Block_matured(const ir_node *node)
571 {
572         assert(is_Block(node));
573         return (int)node->attr.block.is_matured;
574 }
575
576 void set_Block_matured(ir_node *node, int matured)
577 {
578         assert(is_Block(node));
579         node->attr.block.is_matured = matured;
580 }
581
582 ir_visited_t (get_Block_block_visited)(const ir_node *node)
583 {
584         return _get_Block_block_visited(node);
585 }
586
587 void (set_Block_block_visited)(ir_node *node, ir_visited_t visit)
588 {
589         _set_Block_block_visited(node, visit);
590 }
591
592 void (mark_Block_block_visited)(ir_node *node)
593 {
594         _mark_Block_block_visited(node);
595 }
596
597 int (Block_block_visited)(const ir_node *node)
598 {
599         return _Block_block_visited(node);
600 }
601
602 ir_node *(set_Block_dead)(ir_node *block)
603 {
604         return _set_Block_dead(block);
605 }
606
607 int (is_Block_dead)(const ir_node *block)
608 {
609         return _is_Block_dead(block);
610 }
611
612 ir_extblk *get_Block_extbb(const ir_node *block)
613 {
614         ir_extblk *res;
615         assert(is_Block(block));
616         res = block->attr.block.extblk;
617         assert(res == NULL || is_ir_extbb(res));
618         return res;
619 }
620
621 void set_Block_extbb(ir_node *block, ir_extblk *extblk)
622 {
623         assert(is_Block(block));
624         assert(extblk == NULL || is_ir_extbb(extblk));
625         block->attr.block.extblk = extblk;
626 }
627
628 /* returns the graph of a Block. */
629 ir_graph *(get_Block_irg)(const ir_node *block)
630 {
631         return _get_Block_irg(block);
632 }
633
634 ir_entity *create_Block_entity(ir_node *block)
635 {
636         ir_entity *entity;
637         assert(is_Block(block));
638
639         entity = block->attr.block.entity;
640         if (entity == NULL) {
641                 ir_label_t  nr;
642                 ir_type   *glob;
643
644                 glob = get_glob_type();
645                 entity = new_entity(glob, id_unique("block_%u"), get_code_type());
646                 set_entity_visibility(entity, ir_visibility_local);
647                 set_entity_linkage(entity, IR_LINKAGE_CONSTANT);
648                 nr = get_irp_next_label_nr();
649                 set_entity_label(entity, nr);
650                 set_entity_compiler_generated(entity, 1);
651
652                 block->attr.block.entity = entity;
653         }
654         return entity;
655 }
656
657 ir_entity *get_Block_entity(const ir_node *block)
658 {
659         assert(is_Block(block));
660         return block->attr.block.entity;
661 }
662
663 void set_Block_entity(ir_node *block, ir_entity *entity)
664 {
665         assert(is_Block(block));
666         assert(get_entity_type(entity) == get_code_type());
667         block->attr.block.entity = entity;
668 }
669
670 int has_Block_entity(const ir_node *block)
671 {
672         return block->attr.block.entity != NULL;
673 }
674
675 ir_node *(get_Block_phis)(const ir_node *block)
676 {
677         return _get_Block_phis(block);
678 }
679
680 void (set_Block_phis)(ir_node *block, ir_node *phi)
681 {
682         _set_Block_phis(block, phi);
683 }
684
685 void (add_Block_phi)(ir_node *block, ir_node *phi)
686 {
687         _add_Block_phi(block, phi);
688 }
689
690 /* Get the Block mark (single bit). */
691 unsigned (get_Block_mark)(const ir_node *block)
692 {
693         return _get_Block_mark(block);
694 }
695
696 /* Set the Block mark (single bit). */
697 void (set_Block_mark)(ir_node *block, unsigned mark)
698 {
699         _set_Block_mark(block, mark);
700 }
701
702 int get_End_n_keepalives(const ir_node *end)
703 {
704         assert(is_End(end));
705         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
706 }
707
708 ir_node *get_End_keepalive(const ir_node *end, int pos)
709 {
710         assert(is_End(end));
711         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
712 }
713
714 void add_End_keepalive(ir_node *end, ir_node *ka)
715 {
716         assert(is_End(end));
717         add_irn_n(end, ka);
718 }
719
720 void set_End_keepalive(ir_node *end, int pos, ir_node *ka)
721 {
722         assert(is_End(end));
723         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
724 }
725
726 /* Set new keep-alives */
727 void set_End_keepalives(ir_node *end, int n, ir_node *in[])
728 {
729         size_t e;
730         int    i;
731         ir_graph *irg = get_irn_irg(end);
732
733         /* notify that edges are deleted */
734         for (e = END_KEEPALIVE_OFFSET; e < ARR_LEN(end->in) - 1; ++e) {
735                 edges_notify_edge(end, e, NULL, end->in[e + 1], irg);
736         }
737         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
738
739         for (i = 0; i < n; ++i) {
740                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
741                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
742         }
743 }
744
745 /* Set new keep-alives from old keep-alives, skipping irn */
746 void remove_End_keepalive(ir_node *end, ir_node *irn)
747 {
748         int      n = get_End_n_keepalives(end);
749         int      i, idx;
750         ir_graph *irg;
751
752         idx = -1;
753         for (i = n -1; i >= 0; --i) {
754                 ir_node *old_ka = end->in[1 + END_KEEPALIVE_OFFSET + i];
755
756                 /* find irn */
757                 if (old_ka == irn) {
758                         idx = i;
759                         goto found;
760                 }
761         }
762         return;
763 found:
764         irg = get_irn_irg(end);
765
766         /* remove the edge */
767         edges_notify_edge(end, idx, NULL, irn, irg);
768
769         if (idx != n - 1) {
770                 /* exchange with the last one */
771                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
772                 edges_notify_edge(end, n - 1, NULL, old, irg);
773                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
774                 edges_notify_edge(end, idx, old, NULL, irg);
775         }
776         /* now n - 1 keeps, 1 block input */
777         ARR_RESIZE(ir_node *, end->in, (n - 1) + 1 + END_KEEPALIVE_OFFSET);
778 }
779
780 /* remove Bads, NoMems and doublets from the keep-alive set */
781 void remove_End_Bads_and_doublets(ir_node *end)
782 {
783         pset_new_t keeps;
784         int        idx, n = get_End_n_keepalives(end);
785         ir_graph   *irg;
786
787         if (n <= 0)
788                 return;
789
790         irg = get_irn_irg(end);
791         pset_new_init(&keeps);
792
793         for (idx = n - 1; idx >= 0; --idx) {
794                 ir_node *ka = get_End_keepalive(end, idx);
795
796                 if (is_Bad(ka) || is_NoMem(ka) || pset_new_contains(&keeps, ka)) {
797                         /* remove the edge */
798                         edges_notify_edge(end, idx, NULL, ka, irg);
799
800                         if (idx != n - 1) {
801                                 /* exchange with the last one */
802                                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
803                                 edges_notify_edge(end, n - 1, NULL, old, irg);
804                                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
805                                 edges_notify_edge(end, idx, old, NULL, irg);
806                         }
807                         --n;
808                 } else {
809                         pset_new_insert(&keeps, ka);
810                 }
811         }
812         /* n keeps, 1 block input */
813         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
814
815         pset_new_destroy(&keeps);
816 }
817
818 void free_End(ir_node *end)
819 {
820         assert(is_End(end));
821         end->kind = k_BAD;
822         DEL_ARR_F(end->in);
823         end->in = NULL;   /* @@@ make sure we get an error if we use the
824                              in array afterwards ... */
825 }
826
827 size_t get_Return_n_ress(const ir_node *node)
828 {
829         assert(is_Return(node));
830         return (size_t)(get_irn_arity(node) - RETURN_RESULT_OFFSET);
831 }
832
833 ir_node **get_Return_res_arr(ir_node *node)
834 {
835         assert(is_Return(node));
836         if (get_Return_n_ress(node) > 0)
837                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
838         else
839                 return NULL;
840 }
841
842 ir_node *get_Return_res(const ir_node *node, int pos)
843 {
844         assert(is_Return(node));
845         assert(pos >= 0);
846         assert(get_Return_n_ress(node) > (size_t)pos);
847         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
848 }
849
850 void set_Return_res(ir_node *node, int pos, ir_node *res)
851 {
852         assert(is_Return(node));
853         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
854 }
855
856 int (is_Const_null)(const ir_node *node)
857 {
858         return _is_Const_null(node);
859 }
860
861 int (is_Const_one)(const ir_node *node)
862 {
863         return _is_Const_one(node);
864 }
865
866 int (is_Const_all_one)(const ir_node *node)
867 {
868         return _is_Const_all_one(node);
869 }
870
871
872
873 symconst_kind get_SymConst_kind(const ir_node *node)
874 {
875         assert(is_SymConst(node));
876         return node->attr.symc.kind;
877 }
878
879 void set_SymConst_kind(ir_node *node, symconst_kind kind)
880 {
881         assert(is_SymConst(node));
882         node->attr.symc.kind = kind;
883 }
884
885 ir_type *get_SymConst_type(const ir_node *node)
886 {
887         /* the cast here is annoying, but we have to compensate for
888            the skip_tip() */
889         ir_node *irn = (ir_node *)node;
890         assert(is_SymConst(node) &&
891                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
892         return irn->attr.symc.sym.type_p;
893 }
894
895 void set_SymConst_type(ir_node *node, ir_type *tp)
896 {
897         assert(is_SymConst(node) &&
898                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
899         node->attr.symc.sym.type_p = tp;
900 }
901
902
903 /* Only to access SymConst of kind symconst_addr_ent.  Else assertion: */
904 ir_entity *get_SymConst_entity(const ir_node *node)
905 {
906         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
907         return node->attr.symc.sym.entity_p;
908 }
909
910 void set_SymConst_entity(ir_node *node, ir_entity *ent)
911 {
912         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
913         node->attr.symc.sym.entity_p  = ent;
914 }
915
916 ir_enum_const *get_SymConst_enum(const ir_node *node)
917 {
918         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
919         return node->attr.symc.sym.enum_p;
920 }
921
922 void set_SymConst_enum(ir_node *node, ir_enum_const *ec)
923 {
924         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
925         node->attr.symc.sym.enum_p  = ec;
926 }
927
928 union symconst_symbol
929 get_SymConst_symbol(const ir_node *node)
930 {
931         assert(is_SymConst(node));
932         return node->attr.symc.sym;
933 }
934
935 void set_SymConst_symbol(ir_node *node, union symconst_symbol sym)
936 {
937         assert(is_SymConst(node));
938         node->attr.symc.sym = sym;
939 }
940
941 int get_Sel_n_indexs(const ir_node *node)
942 {
943         assert(is_Sel(node));
944         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
945 }
946
947 ir_node **get_Sel_index_arr(ir_node *node)
948 {
949         assert(is_Sel(node));
950         if (get_Sel_n_indexs(node) > 0)
951                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
952         else
953                 return NULL;
954 }
955
956 ir_node *get_Sel_index(const ir_node *node, int pos)
957 {
958         assert(is_Sel(node));
959         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
960 }
961
962 void set_Sel_index(ir_node *node, int pos, ir_node *index)
963 {
964         assert(is_Sel(node));
965         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
966 }
967
968 ir_node **get_Call_param_arr(ir_node *node)
969 {
970         assert(is_Call(node));
971         return &get_irn_in(node)[CALL_PARAM_OFFSET + 1];
972 }
973
974 size_t get_Call_n_params(const ir_node *node)
975 {
976         assert(is_Call(node));
977         return (size_t) (get_irn_arity(node) - CALL_PARAM_OFFSET);
978 }
979
980 ir_node *get_Call_param(const ir_node *node, int pos)
981 {
982         assert(is_Call(node));
983         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
984 }
985
986 void set_Call_param(ir_node *node, int pos, ir_node *param)
987 {
988         assert(is_Call(node));
989         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
990 }
991
992 ir_node **get_Builtin_param_arr(ir_node *node)
993 {
994         assert(is_Builtin(node));
995         return &get_irn_in(node)[BUILDIN_PARAM_OFFSET + 1];
996 }
997
998 int get_Builtin_n_params(const ir_node *node)
999 {
1000         assert(is_Builtin(node));
1001         return (get_irn_arity(node) - BUILDIN_PARAM_OFFSET);
1002 }
1003
1004 ir_node *get_Builtin_param(const ir_node *node, int pos)
1005 {
1006         assert(is_Builtin(node));
1007         return get_irn_n(node, pos + BUILDIN_PARAM_OFFSET);
1008 }
1009
1010 void set_Builtin_param(ir_node *node, int pos, ir_node *param)
1011 {
1012         assert(is_Builtin(node));
1013         set_irn_n(node, pos + BUILDIN_PARAM_OFFSET, param);
1014 }
1015
1016 /* Returns a human readable string for the ir_builtin_kind. */
1017 const char *get_builtin_kind_name(ir_builtin_kind kind)
1018 {
1019 #define X(a)    case a: return #a
1020         switch (kind) {
1021                 X(ir_bk_trap);
1022                 X(ir_bk_debugbreak);
1023                 X(ir_bk_return_address);
1024                 X(ir_bk_frame_address);
1025                 X(ir_bk_prefetch);
1026                 X(ir_bk_ffs);
1027                 X(ir_bk_clz);
1028                 X(ir_bk_ctz);
1029                 X(ir_bk_popcount);
1030                 X(ir_bk_parity);
1031                 X(ir_bk_bswap);
1032                 X(ir_bk_inport);
1033                 X(ir_bk_outport);
1034                 X(ir_bk_inner_trampoline);
1035         }
1036         return "<unknown>";
1037 #undef X
1038 }
1039
1040
1041 int Call_has_callees(const ir_node *node)
1042 {
1043         assert(is_Call(node));
1044         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
1045                 (node->attr.call.callee_arr != NULL));
1046 }
1047
1048 int get_Call_n_callees(const ir_node *node)
1049 {
1050   assert(is_Call(node) && node->attr.call.callee_arr);
1051   return ARR_LEN(node->attr.call.callee_arr);
1052 }
1053
1054 ir_entity *get_Call_callee(const ir_node *node, int pos)
1055 {
1056         assert(pos >= 0 && pos < get_Call_n_callees(node));
1057         return node->attr.call.callee_arr[pos];
1058 }
1059
1060 void set_Call_callee_arr(ir_node *node, const int n, ir_entity ** arr)
1061 {
1062         ir_graph *irg = get_irn_irg(node);
1063
1064         assert(is_Call(node));
1065         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
1066                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, irg->obst, n);
1067         }
1068         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
1069 }
1070
1071 void remove_Call_callee_arr(ir_node *node)
1072 {
1073         assert(is_Call(node));
1074         node->attr.call.callee_arr = NULL;
1075 }
1076
1077 /*
1078  * Returns non-zero if a Call is surely a self-recursive Call.
1079  * Beware: if this functions returns 0, the call might be self-recursive!
1080  */
1081 int is_self_recursive_Call(const ir_node *call)
1082 {
1083         const ir_node *callee = get_Call_ptr(call);
1084
1085         if (is_SymConst_addr_ent(callee)) {
1086                 const ir_entity *ent = get_SymConst_entity(callee);
1087                 const ir_graph  *irg = get_entity_irg(ent);
1088                 if (irg == get_irn_irg(call))
1089                         return 1;
1090         }
1091         return 0;
1092 }
1093
1094 /* Checks for upcast.
1095  *
1096  * Returns true if the Cast node casts a class type to a super type.
1097  */
1098 int is_Cast_upcast(ir_node *node)
1099 {
1100         ir_type *totype   = get_Cast_type(node);
1101         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1102
1103         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1104         assert(fromtype);
1105
1106         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1107                 totype   = get_pointer_points_to_type(totype);
1108                 fromtype = get_pointer_points_to_type(fromtype);
1109         }
1110
1111         assert(fromtype);
1112
1113         if (!is_Class_type(totype)) return 0;
1114         return is_SubClass_of(fromtype, totype);
1115 }
1116
1117 /* Checks for downcast.
1118  *
1119  * Returns true if the Cast node casts a class type to a sub type.
1120  */
1121 int is_Cast_downcast(ir_node *node)
1122 {
1123         ir_type *totype   = get_Cast_type(node);
1124         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1125
1126         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1127         assert(fromtype);
1128
1129         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1130                 totype   = get_pointer_points_to_type(totype);
1131                 fromtype = get_pointer_points_to_type(fromtype);
1132         }
1133
1134         assert(fromtype);
1135
1136         if (!is_Class_type(totype)) return 0;
1137         return is_SubClass_of(totype, fromtype);
1138 }
1139
1140 int (is_unop)(const ir_node *node)
1141 {
1142         return _is_unop(node);
1143 }
1144
1145 ir_node *get_unop_op(const ir_node *node)
1146 {
1147         if (node->op->opar == oparity_unary)
1148                 return get_irn_n(node, node->op->op_index);
1149
1150         assert(node->op->opar == oparity_unary);
1151         return NULL;
1152 }
1153
1154 void set_unop_op(ir_node *node, ir_node *op)
1155 {
1156         if (node->op->opar == oparity_unary)
1157                 set_irn_n(node, node->op->op_index, op);
1158
1159         assert(node->op->opar == oparity_unary);
1160 }
1161
1162 int (is_binop)(const ir_node *node)
1163 {
1164         return _is_binop(node);
1165 }
1166
1167 ir_node *get_binop_left(const ir_node *node)
1168 {
1169         assert(node->op->opar == oparity_binary);
1170         return get_irn_n(node, node->op->op_index);
1171 }
1172
1173 void set_binop_left(ir_node *node, ir_node *left)
1174 {
1175         assert(node->op->opar == oparity_binary);
1176         set_irn_n(node, node->op->op_index, left);
1177 }
1178
1179 ir_node *get_binop_right(const ir_node *node)
1180 {
1181         assert(node->op->opar == oparity_binary);
1182         return get_irn_n(node, node->op->op_index + 1);
1183 }
1184
1185 void set_binop_right(ir_node *node, ir_node *right)
1186 {
1187         assert(node->op->opar == oparity_binary);
1188         set_irn_n(node, node->op->op_index + 1, right);
1189 }
1190
1191 int is_Phi0(const ir_node *n)
1192 {
1193         assert(n);
1194
1195         return ((get_irn_op(n) == op_Phi) &&
1196                 (get_irn_arity(n) == 0) &&
1197                 (get_irg_phase_state(get_irn_irg(n)) ==  phase_building));
1198 }
1199
1200 ir_node **get_Phi_preds_arr(ir_node *node)
1201 {
1202   assert(is_Phi(node));
1203   return (ir_node **)&(get_irn_in(node)[1]);
1204 }
1205
1206 int get_Phi_n_preds(const ir_node *node)
1207 {
1208         assert(is_Phi(node) || is_Phi0(node));
1209         return (get_irn_arity(node));
1210 }
1211
1212 ir_node *get_Phi_pred(const ir_node *node, int pos)
1213 {
1214         assert(is_Phi(node) || is_Phi0(node));
1215         return get_irn_n(node, pos);
1216 }
1217
1218 void set_Phi_pred(ir_node *node, int pos, ir_node *pred)
1219 {
1220         assert(is_Phi(node) || is_Phi0(node));
1221         set_irn_n(node, pos, pred);
1222 }
1223
1224 ir_node *(get_Phi_next)(const ir_node *phi)
1225 {
1226         return _get_Phi_next(phi);
1227 }
1228
1229 void (set_Phi_next)(ir_node *phi, ir_node *next)
1230 {
1231         _set_Phi_next(phi, next);
1232 }
1233
1234 int is_memop(const ir_node *node)
1235 {
1236         unsigned code = get_irn_opcode(node);
1237         return (code == iro_Load || code == iro_Store);
1238 }
1239
1240 ir_node *get_memop_mem(const ir_node *node)
1241 {
1242         assert(is_memop(node));
1243         return get_irn_n(node, 0);
1244 }
1245
1246 void set_memop_mem(ir_node *node, ir_node *mem)
1247 {
1248         assert(is_memop(node));
1249         set_irn_n(node, 0, mem);
1250 }
1251
1252 ir_node *get_memop_ptr(const ir_node *node)
1253 {
1254         assert(is_memop(node));
1255         return get_irn_n(node, 1);
1256 }
1257
1258 void set_memop_ptr(ir_node *node, ir_node *ptr)
1259 {
1260         assert(is_memop(node));
1261         set_irn_n(node, 1, ptr);
1262 }
1263
1264 ir_volatility get_Load_volatility(const ir_node *node)
1265 {
1266         assert(is_Load(node));
1267         return (ir_volatility)node->attr.load.volatility;
1268 }
1269
1270 void set_Load_volatility(ir_node *node, ir_volatility volatility)
1271 {
1272         assert(is_Load(node));
1273         node->attr.load.volatility = volatility;
1274 }
1275
1276 ir_align get_Load_align(const ir_node *node)
1277 {
1278         assert(is_Load(node));
1279         return (ir_align)node->attr.load.aligned;
1280 }
1281
1282 void set_Load_align(ir_node *node, ir_align align)
1283 {
1284         assert(is_Load(node));
1285         node->attr.load.aligned = align;
1286 }
1287
1288
1289 ir_volatility get_Store_volatility(const ir_node *node)
1290 {
1291         assert(is_Store(node));
1292         return (ir_volatility)node->attr.store.volatility;
1293 }
1294
1295 void set_Store_volatility(ir_node *node, ir_volatility volatility)
1296 {
1297         assert(is_Store(node));
1298         node->attr.store.volatility = volatility;
1299 }
1300
1301 ir_align get_Store_align(const ir_node *node)
1302 {
1303         assert(is_Store(node));
1304         return (ir_align)node->attr.store.aligned;
1305 }
1306
1307 void set_Store_align(ir_node *node, ir_align align)
1308 {
1309         assert(is_Store(node));
1310         node->attr.store.aligned = align;
1311 }
1312
1313
1314 ir_node **get_Sync_preds_arr(ir_node *node)
1315 {
1316         assert(is_Sync(node));
1317         return (ir_node **)&(get_irn_in(node)[1]);
1318 }
1319
1320 int get_Sync_n_preds(const ir_node *node)
1321 {
1322         assert(is_Sync(node));
1323         return (get_irn_arity(node));
1324 }
1325
1326 /*
1327 void set_Sync_n_preds(ir_node *node, int n_preds)
1328 {
1329         assert(is_Sync(node));
1330 }
1331 */
1332
1333 ir_node *get_Sync_pred(const ir_node *node, int pos)
1334 {
1335         assert(is_Sync(node));
1336         return get_irn_n(node, pos);
1337 }
1338
1339 void set_Sync_pred(ir_node *node, int pos, ir_node *pred)
1340 {
1341         assert(is_Sync(node));
1342         set_irn_n(node, pos, pred);
1343 }
1344
1345 /* Add a new Sync predecessor */
1346 void add_Sync_pred(ir_node *node, ir_node *pred)
1347 {
1348         assert(is_Sync(node));
1349         add_irn_n(node, pred);
1350 }
1351
1352 int (is_arg_Proj)(const ir_node *node)
1353 {
1354         return _is_arg_Proj(node);
1355 }
1356
1357 ir_node **get_Tuple_preds_arr(ir_node *node)
1358 {
1359         assert(is_Tuple(node));
1360         return (ir_node **)&(get_irn_in(node)[1]);
1361 }
1362
1363 int get_Tuple_n_preds(const ir_node *node)
1364 {
1365         assert(is_Tuple(node));
1366         return get_irn_arity(node);
1367 }
1368
1369 ir_node *get_Tuple_pred(const ir_node *node, int pos)
1370 {
1371   assert(is_Tuple(node));
1372   return get_irn_n(node, pos);
1373 }
1374
1375 void set_Tuple_pred(ir_node *node, int pos, ir_node *pred)
1376 {
1377         assert(is_Tuple(node));
1378         set_irn_n(node, pos, pred);
1379 }
1380
1381 int get_ASM_n_input_constraints(const ir_node *node)
1382 {
1383         assert(is_ASM(node));
1384         return ARR_LEN(node->attr.assem.input_constraints);
1385 }
1386
1387 int get_ASM_n_output_constraints(const ir_node *node)
1388 {
1389         assert(is_ASM(node));
1390         return ARR_LEN(node->attr.assem.output_constraints);
1391 }
1392
1393 int get_ASM_n_clobbers(const ir_node *node)
1394 {
1395         assert(is_ASM(node));
1396         return ARR_LEN(node->attr.assem.clobbers);
1397 }
1398
1399 /* returns the graph of a node */
1400 ir_graph *(get_irn_irg)(const ir_node *node)
1401 {
1402         return _get_irn_irg(node);
1403 }
1404
1405
1406 /*----------------------------------------------------------------*/
1407 /*  Auxiliary routines                                            */
1408 /*----------------------------------------------------------------*/
1409
1410 ir_node *skip_Proj(ir_node *node)
1411 {
1412         /* don't assert node !!! */
1413         if (node == NULL)
1414                 return NULL;
1415
1416         if (is_Proj(node))
1417                 node = get_Proj_pred(node);
1418
1419         return node;
1420 }
1421
1422 const ir_node *
1423 skip_Proj_const(const ir_node *node)
1424 {
1425         /* don't assert node !!! */
1426         if (node == NULL)
1427                 return NULL;
1428
1429         if (is_Proj(node))
1430                 node = get_Proj_pred(node);
1431
1432         return node;
1433 }
1434
1435 ir_node *skip_Tuple(ir_node *node)
1436 {
1437   ir_node *pred;
1438
1439 restart:
1440         if (is_Proj(node)) {
1441             pred = get_Proj_pred(node);
1442
1443                 if (is_Proj(pred)) { /* nested Tuple ? */
1444                     pred = skip_Tuple(pred);
1445
1446                         if (is_Tuple(pred)) {
1447                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
1448                                 goto restart;
1449                         }
1450                 } else if (is_Tuple(pred)) {
1451                         node = get_Tuple_pred(pred, get_Proj_proj(node));
1452                         goto restart;
1453                 }
1454         }
1455         return node;
1456 }
1457
1458 /* returns operand of node if node is a Cast */
1459 ir_node *skip_Cast(ir_node *node)
1460 {
1461         if (is_Cast(node))
1462                 return get_Cast_op(node);
1463         return node;
1464 }
1465
1466 /* returns operand of node if node is a Cast */
1467 const ir_node *skip_Cast_const(const ir_node *node)
1468 {
1469         if (is_Cast(node))
1470                 return get_Cast_op(node);
1471         return node;
1472 }
1473
1474 /* returns operand of node if node is a Pin */
1475 ir_node *skip_Pin(ir_node *node)
1476 {
1477         if (is_Pin(node))
1478                 return get_Pin_op(node);
1479         return node;
1480 }
1481
1482 /* returns operand of node if node is a Confirm */
1483 ir_node *skip_Confirm(ir_node *node)
1484 {
1485         if (is_Confirm(node))
1486                 return get_Confirm_value(node);
1487         return node;
1488 }
1489
1490 /* skip all high-level ops */
1491 ir_node *skip_HighLevel_ops(ir_node *node)
1492 {
1493         while (is_op_highlevel(get_irn_op(node))) {
1494                 node = get_irn_n(node, 0);
1495         }
1496         return node;
1497 }
1498
1499
1500 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
1501  * than any other approach, as Id chains are resolved and all point to the real node, or
1502  * all id's are self loops.
1503  *
1504  * Note: This function takes 10% of mostly ANY the compiler run, so it's
1505  * a little bit "hand optimized".
1506  */
1507 ir_node *skip_Id(ir_node *node)
1508 {
1509         ir_node *pred;
1510         /* don't assert node !!! */
1511
1512         if (!node || (node->op != op_Id)) return node;
1513
1514         /* Don't use get_Id_pred():  We get into an endless loop for
1515            self-referencing Ids. */
1516         pred = node->in[0+1];
1517
1518         if (pred->op != op_Id) return pred;
1519
1520         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
1521                 ir_node *rem_pred, *res;
1522
1523                 if (pred->op != op_Id) return pred; /* shortcut */
1524                 rem_pred = pred;
1525
1526                 assert(get_irn_arity (node) > 0);
1527
1528                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
1529                 res = skip_Id(rem_pred);
1530                 if (is_Id(res)) /* self-loop */ return node;
1531
1532                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
1533                 return res;
1534         } else {
1535                 return node;
1536         }
1537 }
1538
1539 int (is_strictConv)(const ir_node *node)
1540 {
1541         return _is_strictConv(node);
1542 }
1543
1544 /* Returns true if node is a SymConst node with kind symconst_addr_ent. */
1545 int (is_SymConst_addr_ent)(const ir_node *node)
1546 {
1547         return _is_SymConst_addr_ent(node);
1548 }
1549
1550 /* Returns true if the operation manipulates control flow. */
1551 int is_cfop(const ir_node *node)
1552 {
1553         return is_op_cfopcode(get_irn_op(node));
1554 }
1555
1556 /* Returns true if the operation can change the control flow because
1557    of an exception. */
1558 int is_fragile_op(const ir_node *node)
1559 {
1560         return is_op_fragile(get_irn_op(node));
1561 }
1562
1563 /* Returns the memory operand of fragile operations. */
1564 ir_node *get_fragile_op_mem(ir_node *node)
1565 {
1566         assert(node && is_fragile_op(node));
1567
1568         switch (get_irn_opcode(node)) {
1569         case iro_Call  :
1570         case iro_Div   :
1571         case iro_Mod   :
1572         case iro_Load  :
1573         case iro_Store :
1574         case iro_Alloc :
1575         case iro_Bound :
1576         case iro_CopyB :
1577                 return get_irn_n(node, pn_Generic_M);
1578         case iro_Bad   :
1579         case iro_Unknown:
1580                 return node;
1581         default:
1582                 panic("should not be reached");
1583         }
1584 }
1585
1586 /* Returns true if the operation is a forking control flow operation. */
1587 int (is_irn_forking)(const ir_node *node)
1588 {
1589         return _is_irn_forking(node);
1590 }
1591
1592 void (copy_node_attr)(ir_graph *irg, const ir_node *old_node, ir_node *new_node)
1593 {
1594         _copy_node_attr(irg, old_node, new_node);
1595 }
1596
1597 /* Return the type attribute of a node n (SymConst, Call, Alloc, Free,
1598    Cast) or NULL.*/
1599 ir_type *(get_irn_type_attr)(ir_node *node)
1600 {
1601         return _get_irn_type_attr(node);
1602 }
1603
1604 /* Return the entity attribute of a node n (SymConst, Sel) or NULL. */
1605 ir_entity *(get_irn_entity_attr)(ir_node *node)
1606 {
1607         return _get_irn_entity_attr(node);
1608 }
1609
1610 /* Returns non-zero for constant-like nodes. */
1611 int (is_irn_constlike)(const ir_node *node)
1612 {
1613         return _is_irn_constlike(node);
1614 }
1615
1616 /*
1617  * Returns non-zero for nodes that are allowed to have keep-alives and
1618  * are neither Block nor PhiM.
1619  */
1620 int (is_irn_keep)(const ir_node *node)
1621 {
1622         return _is_irn_keep(node);
1623 }
1624
1625 /*
1626  * Returns non-zero for nodes that are always placed in the start block.
1627  */
1628 int (is_irn_start_block_placed)(const ir_node *node)
1629 {
1630         return _is_irn_start_block_placed(node);
1631 }
1632
1633 /* Returns non-zero for nodes that are machine operations. */
1634 int (is_irn_machine_op)(const ir_node *node)
1635 {
1636         return _is_irn_machine_op(node);
1637 }
1638
1639 /* Returns non-zero for nodes that are machine operands. */
1640 int (is_irn_machine_operand)(const ir_node *node)
1641 {
1642         return _is_irn_machine_operand(node);
1643 }
1644
1645 /* Returns non-zero for nodes that have the n'th user machine flag set. */
1646 int (is_irn_machine_user)(const ir_node *node, unsigned n)
1647 {
1648         return _is_irn_machine_user(node, n);
1649 }
1650
1651 /* Returns non-zero for nodes that are CSE neutral to its users. */
1652 int (is_irn_cse_neutral)(const ir_node *node)
1653 {
1654         return _is_irn_cse_neutral(node);
1655 }
1656
1657 /* Gets the string representation of the jump prediction .*/
1658 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred)
1659 {
1660 #define X(a)    case a: return #a
1661         switch (pred) {
1662                 X(COND_JMP_PRED_NONE);
1663                 X(COND_JMP_PRED_TRUE);
1664                 X(COND_JMP_PRED_FALSE);
1665         }
1666         return "<unknown>";
1667 #undef X
1668 }
1669
1670 /** Return the attribute type of a SymConst node if exists */
1671 static ir_type *get_SymConst_attr_type(const ir_node *self)
1672 {
1673         symconst_kind kind = get_SymConst_kind(self);
1674         if (SYMCONST_HAS_TYPE(kind))
1675                 return get_SymConst_type(self);
1676         return NULL;
1677 }
1678
1679 /** Return the attribute entity of a SymConst node if exists */
1680 static ir_entity *get_SymConst_attr_entity(const ir_node *self)
1681 {
1682         symconst_kind kind = get_SymConst_kind(self);
1683         if (SYMCONST_HAS_ENT(kind))
1684                 return get_SymConst_entity(self);
1685         return NULL;
1686 }
1687
1688 /** the get_type_attr operation must be always implemented */
1689 static ir_type *get_Null_type(const ir_node *n)
1690 {
1691         (void) n;
1692         return firm_unknown_type;
1693 }
1694
1695 /* Sets the get_type operation for an ir_op_ops. */
1696 ir_op_ops *firm_set_default_get_type_attr(ir_opcode code, ir_op_ops *ops)
1697 {
1698         switch (code) {
1699         case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
1700         case iro_Call:     ops->get_type_attr = get_Call_type; break;
1701         case iro_Alloc:    ops->get_type_attr = get_Alloc_type; break;
1702         case iro_Free:     ops->get_type_attr = get_Free_type; break;
1703         case iro_Cast:     ops->get_type_attr = get_Cast_type; break;
1704         default:
1705                 /* not allowed to be NULL */
1706                 if (! ops->get_type_attr)
1707                         ops->get_type_attr = get_Null_type;
1708                 break;
1709         }
1710         return ops;
1711 }
1712
1713 /** the get_entity_attr operation must be always implemented */
1714 static ir_entity *get_Null_ent(const ir_node *n)
1715 {
1716         (void) n;
1717         return NULL;
1718 }
1719
1720 /* Sets the get_type operation for an ir_op_ops. */
1721 ir_op_ops *firm_set_default_get_entity_attr(ir_opcode code, ir_op_ops *ops)
1722 {
1723         switch (code) {
1724         case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
1725         case iro_Sel:      ops->get_entity_attr = get_Sel_entity; break;
1726         default:
1727                 /* not allowed to be NULL */
1728                 if (! ops->get_entity_attr)
1729                         ops->get_entity_attr = get_Null_ent;
1730                 break;
1731         }
1732         return ops;
1733 }
1734
1735 /* Sets the debug information of a node. */
1736 void (set_irn_dbg_info)(ir_node *n, dbg_info *db)
1737 {
1738         _set_irn_dbg_info(n, db);
1739 }
1740
1741 /**
1742  * Returns the debug information of an node.
1743  *
1744  * @param n   The node.
1745  */
1746 dbg_info *(get_irn_dbg_info)(const ir_node *n)
1747 {
1748         return _get_irn_dbg_info(n);
1749 }
1750
1751 /* checks whether a node represents a global address */
1752 int is_Global(const ir_node *node)
1753 {
1754         return is_SymConst_addr_ent(node);
1755 }
1756
1757 /* returns the entity of a global address */
1758 ir_entity *get_Global_entity(const ir_node *node)
1759 {
1760         return get_SymConst_entity(node);
1761 }
1762
1763 /*
1764  * Calculate a hash value of a node.
1765  */
1766 unsigned firm_default_hash(const ir_node *node)
1767 {
1768         unsigned h;
1769         int i, irn_arity;
1770
1771         /* hash table value = 9*(9*(9*(9*(9*arity+in[0])+in[1])+ ...)+mode)+code */
1772         h = irn_arity = get_irn_arity(node);
1773
1774         /* consider all in nodes... except the block if not a control flow. */
1775         for (i = is_cfop(node) ? -1 : 0;  i < irn_arity;  ++i) {
1776                 ir_node *pred = get_irn_n(node, i);
1777                 if (is_irn_cse_neutral(pred))
1778                         h *= 9;
1779                 else
1780                         h = 9*h + HASH_PTR(pred);
1781         }
1782
1783         /* ...mode,... */
1784         h = 9*h + HASH_PTR(get_irn_mode(node));
1785         /* ...and code */
1786         h = 9*h + HASH_PTR(get_irn_op(node));
1787
1788         return h;
1789 }  /* firm_default_hash */
1790
1791 /* include generated code */
1792 #include "gen_irnode.c.inl"