add label attribute to blocks, ir_prog
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2007 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  * @version $Id$
25  */
26 #ifdef HAVE_CONFIG_H
27 # include "config.h"
28 #endif
29
30 #ifdef HAVE_STRING_H
31 # include <string.h>
32 #endif
33
34 #include "ident.h"
35 #include "irnode_t.h"
36 #include "irgraph_t.h"
37 #include "irmode_t.h"
38 #include "irbackedge_t.h"
39 #include "irdump.h"
40 #include "irop_t.h"
41 #include "irprog_t.h"
42 #include "iredgekinds.h"
43 #include "iredges_t.h"
44
45 #include "irhooks.h"
46 #include "irtools.h"
47
48 /* some constants fixing the positions of nodes predecessors
49    in the in array */
50 #define CALL_PARAM_OFFSET     2
51 #define FUNCCALL_PARAM_OFFSET 1
52 #define SEL_INDEX_OFFSET      2
53 #define RETURN_RESULT_OFFSET  1  /* mem is not a result */
54 #define END_KEEPALIVE_OFFSET  0
55
56 static const char *pnc_name_arr [] = {
57         "pn_Cmp_False", "pn_Cmp_Eq", "pn_Cmp_Lt", "pn_Cmp_Le",
58         "pn_Cmp_Gt", "pn_Cmp_Ge", "pn_Cmp_Lg", "pn_Cmp_Leg",
59         "pn_Cmp_Uo", "pn_Cmp_Ue", "pn_Cmp_Ul", "pn_Cmp_Ule",
60         "pn_Cmp_Ug", "pn_Cmp_Uge", "pn_Cmp_Ne", "pn_Cmp_True"
61 };
62
63 /**
64  * returns the pnc name from an pnc constant
65  */
66 const char *get_pnc_string(int pnc) {
67         assert(pnc >= 0 && pnc <
68                         (int) (sizeof(pnc_name_arr)/sizeof(pnc_name_arr[0])));
69         return pnc_name_arr[pnc];
70 }
71
72 /*
73  * Calculates the negated (Complement(R)) pnc condition.
74  */
75 int get_negated_pnc(int pnc, ir_mode *mode) {
76         pnc ^= pn_Cmp_True;
77
78         /* do NOT add the Uo bit for non-floating point values */
79         if (! mode_is_float(mode))
80                 pnc &= ~pn_Cmp_Uo;
81
82         return pnc;
83 }
84
85 /* Calculates the inversed (R^-1) pnc condition, i.e., "<" --> ">" */
86 int
87 get_inversed_pnc(int pnc) {
88         int code    = pnc & ~(pn_Cmp_Lt|pn_Cmp_Gt);
89         int lesser  = pnc & pn_Cmp_Lt;
90         int greater = pnc & pn_Cmp_Gt;
91
92         code |= (lesser ? pn_Cmp_Gt : 0) | (greater ? pn_Cmp_Lt : 0);
93
94         return code;
95 }
96
97 /**
98  * Indicates, whether additional data can be registered to ir nodes.
99  * If set to 1, this is not possible anymore.
100  */
101 static int forbid_new_data = 0;
102
103 /**
104  * The amount of additional space for custom data to be allocated upon
105  * creating a new node.
106  */
107 unsigned firm_add_node_size = 0;
108
109
110 /* register new space for every node */
111 unsigned firm_register_additional_node_data(unsigned size) {
112         assert(!forbid_new_data && "Too late to register additional node data");
113
114         if (forbid_new_data)
115                 return 0;
116
117         return firm_add_node_size += size;
118 }
119
120
121 void
122 init_irnode(void) {
123         /* Forbid the addition of new data to an ir node. */
124         forbid_new_data = 1;
125 }
126
127 /*
128  * irnode constructor.
129  * Create a new irnode in irg, with an op, mode, arity and
130  * some incoming irnodes.
131  * If arity is negative, a node with a dynamic array is created.
132  */
133 ir_node *
134 new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op, ir_mode *mode,
135             int arity, ir_node **in)
136 {
137         ir_node *res;
138         size_t node_size = offsetof(ir_node, attr) + op->attr_size + firm_add_node_size;
139         char *p;
140         int i;
141
142         assert(irg && op && mode);
143         p = obstack_alloc(irg->obst, node_size);
144         memset(p, 0, node_size);
145         res = (ir_node *)(p + firm_add_node_size);
146
147         res->kind     = k_ir_node;
148         res->op       = op;
149         res->mode     = mode;
150         res->visited  = 0;
151         res->node_idx = irg_register_node_idx(irg, res);
152         res->link     = NULL;
153         res->deps     = NULL;
154
155         if (arity < 0) {
156                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
157         } else {
158                 res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
159                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
160         }
161
162         res->in[0] = block;
163         set_irn_dbg_info(res, db);
164         res->out = NULL;
165
166 #ifdef DEBUG_libfirm
167         res->node_nr = get_irp_new_node_nr();
168 #endif
169
170         for (i = 0; i < EDGE_KIND_LAST; ++i)
171                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
172
173         /* don't put this into the for loop, arity is -1 for some nodes! */
174         edges_notify_edge(res, -1, res->in[0], NULL, irg);
175         for (i = 1; i <= arity; ++i)
176                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
177
178         hook_new_node(irg, res);
179
180         return res;
181 }
182
183 /*-- getting some parameters from ir_nodes --*/
184
185 int
186 (is_ir_node)(const void *thing) {
187         return _is_ir_node(thing);
188 }
189
190 int
191 (get_irn_intra_arity)(const ir_node *node) {
192         return _get_irn_intra_arity(node);
193 }
194
195 int
196 (get_irn_inter_arity)(const ir_node *node) {
197         return _get_irn_inter_arity(node);
198 }
199
200 int (*_get_irn_arity)(const ir_node *node) = _get_irn_intra_arity;
201
202 int
203 (get_irn_arity)(const ir_node *node) {
204         return _get_irn_arity(node);
205 }
206
207 /* Returns the array with ins. This array is shifted with respect to the
208    array accessed by get_irn_n: The block operand is at position 0 not -1.
209    (@@@ This should be changed.)
210    The order of the predecessors in this array is not guaranteed, except that
211    lists of operands as predecessors of Block or arguments of a Call are
212    consecutive. */
213 ir_node **
214 get_irn_in(const ir_node *node) {
215         assert(node);
216         if (get_interprocedural_view()) { /* handle Filter and Block specially */
217                 if (get_irn_opcode(node) == iro_Filter) {
218                         assert(node->attr.filter.in_cg);
219                         return node->attr.filter.in_cg;
220                 } else if (get_irn_opcode(node) == iro_Block && node->attr.block.in_cg) {
221                         return node->attr.block.in_cg;
222                 }
223                 /* else fall through */
224         }
225         return node->in;
226 }
227
228 void
229 set_irn_in(ir_node *node, int arity, ir_node **in) {
230         int i;
231         ir_node *** arr;
232         ir_graph *irg = current_ir_graph;
233         assert(node);
234         if (get_interprocedural_view()) { /* handle Filter and Block specially */
235                 if (get_irn_opcode(node) == iro_Filter) {
236                         assert(node->attr.filter.in_cg);
237                         arr = &node->attr.filter.in_cg;
238                 } else if (get_irn_opcode(node) == iro_Block && node->attr.block.in_cg) {
239                         arr = &node->attr.block.in_cg;
240                 } else {
241                         arr = &node->in;
242                 }
243         } else {
244                 arr = &node->in;
245         }
246
247         for (i = 0; i < arity; i++) {
248                 if (i < ARR_LEN(*arr)-1)
249                         edges_notify_edge(node, i, in[i], (*arr)[i+1], irg);
250                 else
251                         edges_notify_edge(node, i, in[i], NULL,        irg);
252         }
253         for(;i < ARR_LEN(*arr)-1; i++) {
254                 edges_notify_edge(node, i, NULL, (*arr)[i+1], irg);
255         }
256
257         if (arity != ARR_LEN(*arr) - 1) {
258                 ir_node * block = (*arr)[0];
259                 *arr = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
260                 (*arr)[0] = block;
261         }
262         fix_backedges(irg->obst, node);
263
264         memcpy((*arr) + 1, in, sizeof(ir_node *) * arity);
265 }
266
267 ir_node *
268 (get_irn_intra_n)(const ir_node *node, int n) {
269         return _get_irn_intra_n (node, n);
270 }
271
272 ir_node *
273 (get_irn_inter_n)(const ir_node *node, int n) {
274         return _get_irn_inter_n (node, n);
275 }
276
277 ir_node *(*_get_irn_n)(const ir_node *node, int n) = _get_irn_intra_n;
278
279 ir_node *
280 (get_irn_n)(const ir_node *node, int n) {
281         return _get_irn_n(node, n);
282 }
283
284 void
285 set_irn_n (ir_node *node, int n, ir_node *in) {
286         assert(node && node->kind == k_ir_node);
287         assert(-1 <= n);
288         assert(n < get_irn_arity(node));
289         assert(in && in->kind == k_ir_node);
290
291         if ((n == -1) && (get_irn_opcode(node) == iro_Filter)) {
292                 /* Change block pred in both views! */
293                 node->in[n + 1] = in;
294                 assert(node->attr.filter.in_cg);
295                 node->attr.filter.in_cg[n + 1] = in;
296                 return;
297         }
298         if (get_interprocedural_view()) { /* handle Filter and Block specially */
299                 if (get_irn_opcode(node) == iro_Filter) {
300                         assert(node->attr.filter.in_cg);
301                         node->attr.filter.in_cg[n + 1] = in;
302                         return;
303                 } else if (get_irn_opcode(node) == iro_Block && node->attr.block.in_cg) {
304                         node->attr.block.in_cg[n + 1] = in;
305                         return;
306                 }
307                 /* else fall through */
308         }
309
310         /* Call the hook */
311         hook_set_irn_n(node, n, in, node->in[n + 1]);
312
313         /* Here, we rely on src and tgt being in the current ir graph */
314         edges_notify_edge(node, n, in, node->in[n + 1], current_ir_graph);
315
316         node->in[n + 1] = in;
317 }
318
319 int add_irn_n(ir_node *node, ir_node *in)
320 {
321         int pos;
322         ir_graph *irg = get_irn_irg(node);
323
324         assert(node->op->opar == oparity_dynamic);
325         pos = ARR_LEN(node->in) - 1;
326         ARR_APP1(ir_node *, node->in, in);
327         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
328
329         /* Call the hook */
330         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
331
332         return pos;
333 }
334
335 int
336 (get_irn_deps)(const ir_node *node)
337 {
338         return _get_irn_deps(node);
339 }
340
341 ir_node *
342 (get_irn_dep)(const ir_node *node, int pos)
343 {
344         return _get_irn_dep(node, pos);
345 }
346
347 void
348 (set_irn_dep)(ir_node *node, int pos, ir_node *dep)
349 {
350         _set_irn_dep(node, pos, dep);
351 }
352
353 int add_irn_dep(ir_node *node, ir_node *dep)
354 {
355         int res = 0;
356
357         if (node->deps == NULL) {
358                 node->deps = NEW_ARR_F(ir_node *, 1);
359                 node->deps[0] = dep;
360         } else {
361                 int i, n;
362                 int first_zero = -1;
363
364                 for(i = 0, n = ARR_LEN(node->deps); i < n; ++i) {
365                         if(node->deps[i] == NULL)
366                                 first_zero = i;
367
368                         if(node->deps[i] == dep)
369                                 return i;
370                 }
371
372                 if (first_zero >= 0) {
373                         node->deps[first_zero] = dep;
374                         res = first_zero;
375                 } else {
376                         ARR_APP1(ir_node *, node->deps, dep);
377                         res = n;
378                 }
379         }
380
381         edges_notify_edge_kind(node, res, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
382
383         return res;
384 }
385
386 void add_irn_deps(ir_node *tgt, ir_node *src) {
387         int i, n;
388
389         for (i = 0, n = get_irn_deps(src); i < n; ++i)
390                 add_irn_dep(tgt, get_irn_dep(src, i));
391 }
392
393
394 ir_mode *
395 (get_irn_mode)(const ir_node *node) {
396         return _get_irn_mode(node);
397 }
398
399 void
400 (set_irn_mode)(ir_node *node, ir_mode *mode) {
401         _set_irn_mode(node, mode);
402 }
403
404 modecode
405 get_irn_modecode(const ir_node *node) {
406         assert(node);
407         return node->mode->code;
408 }
409
410 /** Gets the string representation of the mode .*/
411 const char *
412 get_irn_modename(const ir_node *node) {
413         assert(node);
414         return get_mode_name(node->mode);
415 }
416
417 ident *
418 get_irn_modeident(const ir_node *node) {
419         assert(node);
420         return get_mode_ident(node->mode);
421 }
422
423 ir_op *
424 (get_irn_op)(const ir_node *node) {
425         return _get_irn_op(node);
426 }
427
428 /* should be private to the library: */
429 void
430 (set_irn_op)(ir_node *node, ir_op *op) {
431         _set_irn_op(node, op);
432 }
433
434 unsigned
435 (get_irn_opcode)(const ir_node *node) {
436         return _get_irn_opcode(node);
437 }
438
439 const char *
440 get_irn_opname(const ir_node *node) {
441         assert(node);
442         if (is_Phi0(node)) return "Phi0";
443         return get_id_str(node->op->name);
444 }
445
446 ident *
447 get_irn_opident(const ir_node *node) {
448         assert(node);
449         return node->op->name;
450 }
451
452 unsigned long
453 (get_irn_visited)(const ir_node *node) {
454         return _get_irn_visited(node);
455 }
456
457 void
458 (set_irn_visited)(ir_node *node, unsigned long visited) {
459         _set_irn_visited(node, visited);
460 }
461
462 void
463 (mark_irn_visited)(ir_node *node) {
464         _mark_irn_visited(node);
465 }
466
467 int
468 (irn_not_visited)(const ir_node *node) {
469         return _irn_not_visited(node);
470 }
471
472 int
473 (irn_visited)(const ir_node *node) {
474         return _irn_visited(node);
475 }
476
477 void
478 (set_irn_link)(ir_node *node, void *link) {
479         _set_irn_link(node, link);
480 }
481
482 void *
483 (get_irn_link)(const ir_node *node) {
484         return _get_irn_link(node);
485 }
486
487 op_pin_state
488 (get_irn_pinned)(const ir_node *node) {
489         return _get_irn_pinned(node);
490 }
491
492 op_pin_state
493 (is_irn_pinned_in_irg) (const ir_node *node) {
494         return _is_irn_pinned_in_irg(node);
495 }
496
497 void set_irn_pinned(ir_node *node, op_pin_state state) {
498         /* due to optimization an opt may be turned into a Tuple */
499         if (get_irn_op(node) == op_Tuple)
500                 return;
501
502         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
503         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
504
505         node->attr.except.pin_state = state;
506 }
507
508 #ifdef DO_HEAPANALYSIS
509 /* Access the abstract interpretation information of a node.
510    Returns NULL if no such information is available. */
511 struct abstval *get_irn_abst_value(ir_node *n) {
512         return n->av;
513 }
514 /* Set the abstract interpretation information of a node. */
515 void set_irn_abst_value(ir_node *n, struct abstval *os) {
516         n->av = os;
517 }
518 struct section *firm_get_irn_section(ir_node *n) {
519         return n->sec;
520 }
521 void firm_set_irn_section(ir_node *n, struct section *s) {
522         n->sec = s;
523 }
524 #else
525 /* Dummies needed for firmjni. */
526 struct abstval *get_irn_abst_value(ir_node *n) {
527         (void) n;
528         return NULL;
529 }
530 void set_irn_abst_value(ir_node *n, struct abstval *os) {
531         (void) n;
532         (void) os;
533 }
534 struct section *firm_get_irn_section(ir_node *n) {
535         (void) n;
536         return NULL;
537 }
538 void firm_set_irn_section(ir_node *n, struct section *s) {
539         (void) n;
540         (void) s;
541 }
542 #endif /* DO_HEAPANALYSIS */
543
544
545 /* Outputs a unique number for this node */
546 long get_irn_node_nr(const ir_node *node) {
547         assert(node);
548 #ifdef DEBUG_libfirm
549         return node->node_nr;
550 #else
551         return (long)PTR_TO_INT(node);
552 #endif
553 }
554
555 const_attr *
556 get_irn_const_attr(ir_node *node) {
557         assert(node->op == op_Const);
558         return &node->attr.con;
559 }
560
561 long
562 get_irn_proj_attr(ir_node *node) {
563         assert(node->op == op_Proj);
564         return node->attr.proj;
565 }
566
567 alloc_attr *
568 get_irn_alloc_attr(ir_node *node) {
569         assert(node->op == op_Alloc);
570         return &node->attr.alloc;
571 }
572
573 free_attr *
574 get_irn_free_attr(ir_node *node) {
575         assert(node->op == op_Free);
576         return &node->attr.free;
577 }
578
579 symconst_attr *
580 get_irn_symconst_attr(ir_node *node) {
581         assert(node->op == op_SymConst);
582         return &node->attr.symc;
583 }
584
585 ir_type *
586 get_irn_call_attr(ir_node *node) {
587         assert(node->op == op_Call);
588         return node->attr.call.cld_tp = skip_tid(node->attr.call.cld_tp);
589 }
590
591 sel_attr *
592 get_irn_sel_attr(ir_node *node) {
593         assert(node->op == op_Sel);
594         return &node->attr.sel;
595 }
596
597 int
598 get_irn_phi0_attr(ir_node *node) {
599         assert(is_Phi0(node));
600         return node->attr.phi0.pos;
601 }
602
603 block_attr *
604 get_irn_block_attr(ir_node *node) {
605         assert(node->op == op_Block);
606         return &node->attr.block;
607 }
608
609 load_attr *
610 get_irn_load_attr(ir_node *node) {
611         assert(node->op == op_Load);
612         return &node->attr.load;
613 }
614
615 store_attr *
616 get_irn_store_attr(ir_node *node) {
617         assert(node->op == op_Store);
618         return &node->attr.store;
619 }
620
621 except_attr *
622 get_irn_except_attr(ir_node *node) {
623         assert(node->op == op_Div || node->op == op_Quot ||
624                node->op == op_DivMod || node->op == op_Mod || node->op == op_Call || node->op == op_Alloc);
625         return &node->attr.except;
626 }
627
628 void *(get_irn_generic_attr)(ir_node *node) {
629         assert(is_ir_node(node));
630         return _get_irn_generic_attr(node);
631 }
632
633 const void *(get_irn_generic_attr_const)(const ir_node *node) {
634         assert(is_ir_node(node));
635         return _get_irn_generic_attr_const(node);
636 }
637
638 unsigned (get_irn_idx)(const ir_node *node) {
639         assert(is_ir_node(node));
640         return _get_irn_idx(node);
641 }
642
643 int get_irn_pred_pos(ir_node *node, ir_node *arg) {
644         int i;
645         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
646                 if (get_irn_n(node, i) == arg)
647                         return i;
648         }
649         return -1;
650 }
651
652 /** manipulate fields of individual nodes **/
653
654 /* this works for all except Block */
655 ir_node *
656 get_nodes_block(const ir_node *node) {
657         assert(node->op != op_Block);
658         return get_irn_n(node, -1);
659 }
660
661 void
662 set_nodes_block(ir_node *node, ir_node *block) {
663         assert(node->op != op_Block);
664         set_irn_n(node, -1, block);
665 }
666
667 /* Test whether arbitrary node is frame pointer, i.e. Proj(pn_Start_P_frame_base)
668  * from Start.  If so returns frame type, else Null. */
669 ir_type *is_frame_pointer(ir_node *n) {
670         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
671                 ir_node *start = get_Proj_pred(n);
672                 if (get_irn_op(start) == op_Start) {
673                         return get_irg_frame_type(get_irn_irg(start));
674                 }
675         }
676         return NULL;
677 }
678
679 /* Test whether arbitrary node is globals pointer, i.e. Proj(pn_Start_P_globals)
680  * from Start.  If so returns global type, else Null. */
681 ir_type *is_globals_pointer(ir_node *n) {
682         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_globals)) {
683                 ir_node *start = get_Proj_pred(n);
684                 if (get_irn_op(start) == op_Start) {
685                         return get_glob_type();
686                 }
687         }
688         return NULL;
689 }
690
691 /* Test whether arbitrary node is tls pointer, i.e. Proj(pn_Start_P_tls)
692  * from Start.  If so returns tls type, else Null. */
693 ir_type *is_tls_pointer(ir_node *n) {
694         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_globals)) {
695                 ir_node *start = get_Proj_pred(n);
696                 if (get_irn_op(start) == op_Start) {
697                         return get_tls_type();
698                 }
699         }
700         return NULL;
701 }
702
703 /* Test whether arbitrary node is value arg base, i.e. Proj(pn_Start_P_value_arg_base)
704  * from Start.  If so returns 1, else 0. */
705 int is_value_arg_pointer(ir_node *n) {
706         if ((get_irn_op(n) == op_Proj) &&
707                 (get_Proj_proj(n) == pn_Start_P_value_arg_base) &&
708                 (get_irn_op(get_Proj_pred(n)) == op_Start))
709                 return 1;
710         return 0;
711 }
712
713 /* Returns an array with the predecessors of the Block. Depending on
714    the implementation of the graph data structure this can be a copy of
715    the internal representation of predecessors as well as the internal
716    array itself. Therefore writing to this array might obstruct the ir. */
717 ir_node **
718 get_Block_cfgpred_arr(ir_node *node) {
719         assert((node->op == op_Block));
720         return (ir_node **)&(get_irn_in(node)[1]);
721 }
722
723 int
724 (get_Block_n_cfgpreds)(const ir_node *node) {
725         return _get_Block_n_cfgpreds(node);
726 }
727
728 ir_node *
729 (get_Block_cfgpred)(ir_node *node, int pos) {
730         return _get_Block_cfgpred(node, pos);
731 }
732
733 void
734 set_Block_cfgpred(ir_node *node, int pos, ir_node *pred) {
735         assert(node->op == op_Block);
736         set_irn_n(node, pos, pred);
737 }
738
739 ir_node  *
740 (get_Block_cfgpred_block)(ir_node *node, int pos) {
741         return _get_Block_cfgpred_block(node, pos);
742 }
743
744 int
745 get_Block_matured(ir_node *node) {
746         assert(node->op == op_Block);
747         return (int)node->attr.block.is_matured;
748 }
749
750 void
751 set_Block_matured(ir_node *node, int matured) {
752         assert(node->op == op_Block);
753         node->attr.block.is_matured = matured;
754 }
755
756 unsigned long
757 (get_Block_block_visited)(const ir_node *node) {
758         return _get_Block_block_visited(node);
759 }
760
761 void
762 (set_Block_block_visited)(ir_node *node, unsigned long visit) {
763         _set_Block_block_visited(node, visit);
764 }
765
766 /* For this current_ir_graph must be set. */
767 void
768 (mark_Block_block_visited)(ir_node *node) {
769         _mark_Block_block_visited(node);
770 }
771
772 int
773 (Block_not_block_visited)(const ir_node *node) {
774         return _Block_not_block_visited(node);
775 }
776
777 int
778 (Block_block_visited)(const ir_node *node) {
779         return _Block_block_visited(node);
780 }
781
782 ir_node *
783 get_Block_graph_arr (ir_node *node, int pos) {
784         assert(node->op == op_Block);
785         return node->attr.block.graph_arr[pos+1];
786 }
787
788 void
789 set_Block_graph_arr (ir_node *node, int pos, ir_node *value) {
790         assert(node->op == op_Block);
791         node->attr.block.graph_arr[pos+1] = value;
792 }
793
794 void set_Block_cg_cfgpred_arr(ir_node *node, int arity, ir_node *in[]) {
795         assert(node->op == op_Block);
796         if (node->attr.block.in_cg == NULL || arity != ARR_LEN(node->attr.block.in_cg) - 1) {
797                 node->attr.block.in_cg = NEW_ARR_D(ir_node *, current_ir_graph->obst, arity + 1);
798                 node->attr.block.in_cg[0] = NULL;
799                 node->attr.block.cg_backedge = new_backedge_arr(current_ir_graph->obst, arity);
800                 {
801                         /* Fix backedge array.  fix_backedges() operates depending on
802                            interprocedural_view. */
803                         int ipv = get_interprocedural_view();
804                         set_interprocedural_view(1);
805                         fix_backedges(current_ir_graph->obst, node);
806                         set_interprocedural_view(ipv);
807                 }
808         }
809         memcpy(node->attr.block.in_cg + 1, in, sizeof(ir_node *) * arity);
810 }
811
812 void set_Block_cg_cfgpred(ir_node *node, int pos, ir_node *pred) {
813         assert(node->op == op_Block &&
814                node->attr.block.in_cg &&
815                0 <= pos && pos < ARR_LEN(node->attr.block.in_cg) - 1);
816         node->attr.block.in_cg[pos + 1] = pred;
817 }
818
819 ir_node **get_Block_cg_cfgpred_arr(ir_node *node) {
820         assert(node->op == op_Block);
821         return node->attr.block.in_cg == NULL ? NULL : node->attr.block.in_cg  + 1;
822 }
823
824 int get_Block_cg_n_cfgpreds(ir_node *node) {
825         assert(node->op == op_Block);
826         return node->attr.block.in_cg == NULL ? 0 : ARR_LEN(node->attr.block.in_cg) - 1;
827 }
828
829 ir_node *get_Block_cg_cfgpred(ir_node *node, int pos) {
830         assert(node->op == op_Block && node->attr.block.in_cg);
831         return node->attr.block.in_cg[pos + 1];
832 }
833
834 void remove_Block_cg_cfgpred_arr(ir_node *node) {
835         assert(node->op == op_Block);
836         node->attr.block.in_cg = NULL;
837 }
838
839 ir_node *(set_Block_dead)(ir_node *block) {
840         return _set_Block_dead(block);
841 }
842
843 int (is_Block_dead)(const ir_node *block) {
844         return _is_Block_dead(block);
845 }
846
847 ir_extblk *get_Block_extbb(const ir_node *block) {
848         ir_extblk *res;
849         assert(is_Block(block));
850         res = block->attr.block.extblk;
851         assert(res == NULL || is_ir_extbb(res));
852         return res;
853 }
854
855 void set_Block_extbb(ir_node *block, ir_extblk *extblk) {
856         assert(is_Block(block));
857         assert(extblk == NULL || is_ir_extbb(extblk));
858         block->attr.block.extblk = extblk;
859 }
860
861 /* returns the macro block header of a block. */
862 ir_node *get_Block_MacroBlock(const ir_node *block) {
863         assert(is_Block(block));
864         return get_irn_n(block, -1);
865 }
866
867 /* returns the graph of a Block. */
868 ir_graph *get_Block_irg(const ir_node *block) {
869         assert(is_Block(block));
870         return block->attr.block.irg;
871 }
872
873 int has_Block_label(const ir_node *block) {
874         assert(is_Block(block));
875         return block->attr.block.has_label;
876 }
877
878 ir_label_t get_Block_label(const ir_node *block) {
879         assert(is_Block(block));
880         return block->attr.block.label;
881 }
882
883 void set_Block_label(ir_node *block, ir_label_t label) {
884         assert(is_Block(block));
885         block->attr.block.has_label = 1;
886         block->attr.block.label = label;
887 }
888
889 int
890 get_End_n_keepalives(ir_node *end) {
891         assert(end->op == op_End);
892         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
893 }
894
895 ir_node *
896 get_End_keepalive(ir_node *end, int pos) {
897         assert(end->op == op_End);
898         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
899 }
900
901 void
902 add_End_keepalive(ir_node *end, ir_node *ka) {
903         assert(end->op == op_End);
904         assert((is_Phi(ka) || is_Proj(ka) || is_Block(ka) || is_irn_keep(ka)) && "Only Phi, Block or Keep nodes can be kept alive!");
905         add_irn_n(end, ka);
906 }
907
908 void
909 set_End_keepalive(ir_node *end, int pos, ir_node *ka) {
910         assert(end->op == op_End);
911         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
912 }
913
914 /* Set new keep-alives */
915 void set_End_keepalives(ir_node *end, int n, ir_node *in[]) {
916         int i;
917         ir_graph *irg = get_irn_irg(end);
918
919         /* notify that edges are deleted */
920         for (i = END_KEEPALIVE_OFFSET; i < ARR_LEN(end->in) - 1; ++i) {
921                 edges_notify_edge(end, i, NULL, end->in[i + 1], irg);
922         }
923         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
924
925         for (i = 0; i < n; ++i) {
926                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
927                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
928         }
929 }
930
931 /* Set new keep-alives from old keep-alives, skipping irn */
932 void remove_End_keepalive(ir_node *end, ir_node *irn) {
933         int     n = get_End_n_keepalives(end);
934         ir_node **in;
935         int     i, idx;
936
937         NEW_ARR_A(ir_node *, in, n);
938
939         for (idx = i = 0; i < n; ++i) {
940                 ir_node *old_ka = get_End_keepalive(end, i);
941
942                 /* skip irn */
943                 if (old_ka != irn)
944                         in[idx++] = old_ka;
945         }
946
947         /* set new keep-alives */
948         set_End_keepalives(end, idx, in);
949 }
950
951 void
952 free_End (ir_node *end) {
953         assert(end->op == op_End);
954         end->kind = k_BAD;
955         DEL_ARR_F(end->in);
956         end->in = NULL;   /* @@@ make sure we get an error if we use the
957                              in array afterwards ... */
958 }
959
960 /* Return the target address of an IJmp */
961 ir_node *get_IJmp_target(ir_node *ijmp) {
962         assert(ijmp->op == op_IJmp);
963         return get_irn_n(ijmp, 0);
964 }
965
966 /** Sets the target address of an IJmp */
967 void set_IJmp_target(ir_node *ijmp, ir_node *tgt) {
968         assert(ijmp->op == op_IJmp);
969         set_irn_n(ijmp, 0, tgt);
970 }
971
972 /*
973 > Implementing the case construct (which is where the constant Proj node is
974 > important) involves far more than simply determining the constant values.
975 > We could argue that this is more properly a function of the translator from
976 > Firm to the target machine.  That could be done if there was some way of
977 > projecting "default" out of the Cond node.
978 I know it's complicated.
979 Basically there are two proglems:
980  - determining the gaps between the projs
981  - determining the biggest case constant to know the proj number for
982    the default node.
983 I see several solutions:
984 1. Introduce a ProjDefault node.  Solves both problems.
985    This means to extend all optimizations executed during construction.
986 2. Give the Cond node for switch two flavors:
987    a) there are no gaps in the projs  (existing flavor)
988    b) gaps may exist, default proj is still the Proj with the largest
989       projection number.  This covers also the gaps.
990 3. Fix the semantic of the Cond to that of 2b)
991
992 Solution 2 seems to be the best:
993 Computing the gaps in the Firm representation is not too hard, i.e.,
994 libFIRM can implement a routine that transforms between the two
995 flavours.  This is also possible for 1) but 2) does not require to
996 change any existing optimization.
997 Further it should be far simpler to determine the biggest constant than
998 to compute all gaps.
999 I don't want to choose 3) as 2a) seems to have advantages for
1000 dataflow analysis and 3) does not allow to convert the representation to
1001 2a).
1002 */
1003 ir_node *
1004 get_Cond_selector(ir_node *node) {
1005         assert(node->op == op_Cond);
1006         return get_irn_n(node, 0);
1007 }
1008
1009 void
1010 set_Cond_selector(ir_node *node, ir_node *selector) {
1011         assert(node->op == op_Cond);
1012         set_irn_n(node, 0, selector);
1013 }
1014
1015 cond_kind
1016 get_Cond_kind(ir_node *node) {
1017         assert(node->op == op_Cond);
1018         return node->attr.cond.kind;
1019 }
1020
1021 void
1022 set_Cond_kind(ir_node *node, cond_kind kind) {
1023         assert(node->op == op_Cond);
1024         node->attr.cond.kind = kind;
1025 }
1026
1027 long
1028 get_Cond_defaultProj(ir_node *node) {
1029         assert(node->op == op_Cond);
1030         return node->attr.cond.default_proj;
1031 }
1032
1033 ir_node *
1034 get_Return_mem(ir_node *node) {
1035         assert(node->op == op_Return);
1036         return get_irn_n(node, 0);
1037 }
1038
1039 void
1040 set_Return_mem(ir_node *node, ir_node *mem) {
1041         assert(node->op == op_Return);
1042         set_irn_n(node, 0, mem);
1043 }
1044
1045 int
1046 get_Return_n_ress(ir_node *node) {
1047         assert(node->op == op_Return);
1048         return (get_irn_arity(node) - RETURN_RESULT_OFFSET);
1049 }
1050
1051 ir_node **
1052 get_Return_res_arr (ir_node *node) {
1053         assert((node->op == op_Return));
1054         if (get_Return_n_ress(node) > 0)
1055                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
1056         else
1057                 return NULL;
1058 }
1059
1060 /*
1061 void
1062 set_Return_n_res(ir_node *node, int results) {
1063         assert(node->op == op_Return);
1064 }
1065 */
1066
1067 ir_node *
1068 get_Return_res(ir_node *node, int pos) {
1069         assert(node->op == op_Return);
1070         assert(get_Return_n_ress(node) > pos);
1071         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
1072 }
1073
1074 void
1075 set_Return_res(ir_node *node, int pos, ir_node *res){
1076         assert(node->op == op_Return);
1077         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
1078 }
1079
1080 tarval *(get_Const_tarval)(const ir_node *node) {
1081         return _get_Const_tarval(node);
1082 }
1083
1084 void
1085 set_Const_tarval(ir_node *node, tarval *con) {
1086         assert(node->op == op_Const);
1087         node->attr.con.tv = con;
1088 }
1089
1090 cnst_classify_t (classify_Const)(ir_node *node) {
1091         return _classify_Const(node);
1092 }
1093
1094
1095 /* The source language type.  Must be an atomic type.  Mode of type must
1096    be mode of node. For tarvals from entities type must be pointer to
1097    entity type. */
1098 ir_type *
1099 get_Const_type(ir_node *node) {
1100         assert(node->op == op_Const);
1101         return node->attr.con.tp;
1102 }
1103
1104 void
1105 set_Const_type(ir_node *node, ir_type *tp) {
1106         assert(node->op == op_Const);
1107         if (tp != firm_unknown_type) {
1108                 assert(is_atomic_type(tp));
1109                 assert(get_type_mode(tp) == get_irn_mode(node));
1110         }
1111         node->attr.con.tp = tp;
1112 }
1113
1114
1115 symconst_kind
1116 get_SymConst_kind(const ir_node *node) {
1117         assert(node->op == op_SymConst);
1118         return node->attr.symc.num;
1119 }
1120
1121 void
1122 set_SymConst_kind(ir_node *node, symconst_kind num) {
1123         assert(node->op == op_SymConst);
1124         node->attr.symc.num = num;
1125 }
1126
1127 ir_type *
1128 get_SymConst_type(ir_node *node) {
1129         assert((node->op == op_SymConst) &&
1130                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
1131         return node->attr.symc.sym.type_p = skip_tid(node->attr.symc.sym.type_p);
1132 }
1133
1134 void
1135 set_SymConst_type(ir_node *node, ir_type *tp) {
1136         assert((node->op == op_SymConst) &&
1137                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
1138         node->attr.symc.sym.type_p = tp;
1139 }
1140
1141 ident *
1142 get_SymConst_name(const ir_node *node) {
1143         assert(node->op == op_SymConst && SYMCONST_HAS_ID(get_SymConst_kind(node)));
1144         return node->attr.symc.sym.ident_p;
1145 }
1146
1147 void
1148 set_SymConst_name(ir_node *node, ident *name) {
1149         assert(node->op == op_SymConst && SYMCONST_HAS_ID(get_SymConst_kind(node)));
1150         node->attr.symc.sym.ident_p = name;
1151 }
1152
1153
1154 /* Only to access SymConst of kind symconst_addr_ent.  Else assertion: */
1155 ir_entity *get_SymConst_entity(const ir_node *node) {
1156         assert(node->op == op_SymConst && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
1157         return node->attr.symc.sym.entity_p;
1158 }
1159
1160 void set_SymConst_entity(ir_node *node, ir_entity *ent) {
1161         assert(node->op == op_SymConst && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
1162         node->attr.symc.sym.entity_p  = ent;
1163 }
1164
1165 ir_enum_const *get_SymConst_enum(const ir_node *node) {
1166         assert(node->op == op_SymConst && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
1167         return node->attr.symc.sym.enum_p;
1168 }
1169
1170 void set_SymConst_enum(ir_node *node, ir_enum_const *ec) {
1171         assert(node->op == op_SymConst && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
1172         node->attr.symc.sym.enum_p  = ec;
1173 }
1174
1175 union symconst_symbol
1176 get_SymConst_symbol(const ir_node *node) {
1177         assert(node->op == op_SymConst);
1178         return node->attr.symc.sym;
1179 }
1180
1181 void
1182 set_SymConst_symbol(ir_node *node, union symconst_symbol sym) {
1183         assert(node->op == op_SymConst);
1184         node->attr.symc.sym = sym;
1185 }
1186
1187 ir_label_t get_SymConst_label(const ir_node *node) {
1188         assert(node->op == op_SymConst && SYMCONST_HAS_LABEL(get_SymConst_kind(node)));
1189         return node->attr.symc.sym.label;
1190 }
1191
1192 void set_SymConst_label(ir_node *node, ir_label_t label) {
1193         assert(node->op == op_SymConst && SYMCONST_HAS_LABEL(get_SymConst_kind(node)));
1194         node->attr.symc.sym.label = label;
1195 }
1196
1197 ir_type *
1198 get_SymConst_value_type(ir_node *node) {
1199         assert(node->op == op_SymConst);
1200         if (node->attr.symc.tp) node->attr.symc.tp = skip_tid(node->attr.symc.tp);
1201         return node->attr.symc.tp;
1202 }
1203
1204 void
1205 set_SymConst_value_type(ir_node *node, ir_type *tp) {
1206         assert(node->op == op_SymConst);
1207         node->attr.symc.tp = tp;
1208 }
1209
1210 ir_node *
1211 get_Sel_mem(ir_node *node) {
1212         assert(node->op == op_Sel);
1213         return get_irn_n(node, 0);
1214 }
1215
1216 void
1217 set_Sel_mem(ir_node *node, ir_node *mem) {
1218         assert(node->op == op_Sel);
1219         set_irn_n(node, 0, mem);
1220 }
1221
1222 ir_node *
1223 get_Sel_ptr(ir_node *node) {
1224         assert(node->op == op_Sel);
1225         return get_irn_n(node, 1);
1226 }
1227
1228 void
1229 set_Sel_ptr(ir_node *node, ir_node *ptr) {
1230         assert(node->op == op_Sel);
1231         set_irn_n(node, 1, ptr);
1232 }
1233
1234 int
1235 get_Sel_n_indexs(ir_node *node) {
1236         assert(node->op == op_Sel);
1237         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
1238 }
1239
1240 ir_node **
1241 get_Sel_index_arr(ir_node *node) {
1242         assert((node->op == op_Sel));
1243         if (get_Sel_n_indexs(node) > 0)
1244                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
1245         else
1246                 return NULL;
1247 }
1248
1249 ir_node *
1250 get_Sel_index(ir_node *node, int pos) {
1251         assert(node->op == op_Sel);
1252         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
1253 }
1254
1255 void
1256 set_Sel_index(ir_node *node, int pos, ir_node *index) {
1257         assert(node->op == op_Sel);
1258         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
1259 }
1260
1261 ir_entity *
1262 get_Sel_entity(ir_node *node) {
1263         assert(node->op == op_Sel);
1264         return node->attr.sel.ent;
1265 }
1266
1267 void
1268 set_Sel_entity(ir_node *node, ir_entity *ent) {
1269         assert(node->op == op_Sel);
1270         node->attr.sel.ent = ent;
1271 }
1272
1273
1274 /* For unary and binary arithmetic operations the access to the
1275    operands can be factored out.  Left is the first, right the
1276    second arithmetic value  as listed in tech report 0999-33.
1277    unops are: Minus, Abs, Not, Conv, Cast
1278    binops are: Add, Sub, Mul, Quot, DivMod, Div, Mod, And, Or, Eor, Shl,
1279    Shr, Shrs, Rotate, Cmp */
1280
1281
1282 ir_node *
1283 get_Call_mem(ir_node *node) {
1284         assert(node->op == op_Call);
1285         return get_irn_n(node, 0);
1286 }
1287
1288 void
1289 set_Call_mem(ir_node *node, ir_node *mem) {
1290         assert(node->op == op_Call);
1291         set_irn_n(node, 0, mem);
1292 }
1293
1294 ir_node *
1295 get_Call_ptr(ir_node *node) {
1296         assert(node->op == op_Call);
1297         return get_irn_n(node, 1);
1298 }
1299
1300 void
1301 set_Call_ptr(ir_node *node, ir_node *ptr) {
1302         assert(node->op == op_Call);
1303         set_irn_n(node, 1, ptr);
1304 }
1305
1306 ir_node **
1307 get_Call_param_arr(ir_node *node) {
1308         assert(node->op == op_Call);
1309         return (ir_node **)&get_irn_in(node)[CALL_PARAM_OFFSET + 1];
1310 }
1311
1312 int
1313 get_Call_n_params(ir_node *node)  {
1314         assert(node->op == op_Call);
1315         return (get_irn_arity(node) - CALL_PARAM_OFFSET);
1316 }
1317
1318 int
1319 get_Call_arity(ir_node *node) {
1320         assert(node->op == op_Call);
1321         return get_Call_n_params(node);
1322 }
1323
1324 /* void
1325 set_Call_arity(ir_node *node, ir_node *arity) {
1326         assert(node->op == op_Call);
1327 }
1328 */
1329
1330 ir_node *
1331 get_Call_param(ir_node *node, int pos) {
1332         assert(node->op == op_Call);
1333         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
1334 }
1335
1336 void
1337 set_Call_param(ir_node *node, int pos, ir_node *param) {
1338         assert(node->op == op_Call);
1339         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
1340 }
1341
1342 ir_type *
1343 get_Call_type(ir_node *node) {
1344         assert(node->op == op_Call);
1345         return node->attr.call.cld_tp = skip_tid(node->attr.call.cld_tp);
1346 }
1347
1348 void
1349 set_Call_type(ir_node *node, ir_type *tp) {
1350         assert(node->op == op_Call);
1351         assert((get_unknown_type() == tp) || is_Method_type(tp));
1352         node->attr.call.cld_tp = tp;
1353 }
1354
1355 int Call_has_callees(ir_node *node) {
1356         assert(node && node->op == op_Call);
1357         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
1358                 (node->attr.call.callee_arr != NULL));
1359 }
1360
1361 int get_Call_n_callees(ir_node * node) {
1362   assert(node && node->op == op_Call && node->attr.call.callee_arr);
1363   return ARR_LEN(node->attr.call.callee_arr);
1364 }
1365
1366 ir_entity * get_Call_callee(ir_node * node, int pos) {
1367         assert(pos >= 0 && pos < get_Call_n_callees(node));
1368         return node->attr.call.callee_arr[pos];
1369 }
1370
1371 void set_Call_callee_arr(ir_node * node, const int n, ir_entity ** arr) {
1372         assert(node->op == op_Call);
1373         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
1374                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, current_ir_graph->obst, n);
1375         }
1376         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
1377 }
1378
1379 void remove_Call_callee_arr(ir_node * node) {
1380         assert(node->op == op_Call);
1381         node->attr.call.callee_arr = NULL;
1382 }
1383
1384 ir_node * get_CallBegin_ptr(ir_node *node) {
1385         assert(node->op == op_CallBegin);
1386         return get_irn_n(node, 0);
1387 }
1388
1389 void set_CallBegin_ptr(ir_node *node, ir_node *ptr) {
1390         assert(node->op == op_CallBegin);
1391         set_irn_n(node, 0, ptr);
1392 }
1393
1394 ir_node * get_CallBegin_call(ir_node *node) {
1395         assert(node->op == op_CallBegin);
1396         return node->attr.callbegin.call;
1397 }
1398
1399 void  set_CallBegin_call(ir_node *node, ir_node *call) {
1400         assert(node->op == op_CallBegin);
1401         node->attr.callbegin.call = call;
1402 }
1403
1404
1405 #define BINOP(OP)                                      \
1406 ir_node * get_##OP##_left(const ir_node *node) {       \
1407   assert(node->op == op_##OP);                         \
1408   return get_irn_n(node, node->op->op_index);          \
1409 }                                                      \
1410 void set_##OP##_left(ir_node *node, ir_node *left) {   \
1411   assert(node->op == op_##OP);                         \
1412   set_irn_n(node, node->op->op_index, left);           \
1413 }                                                      \
1414 ir_node *get_##OP##_right(const ir_node *node) {       \
1415   assert(node->op == op_##OP);                         \
1416   return get_irn_n(node, node->op->op_index + 1);      \
1417 }                                                      \
1418 void set_##OP##_right(ir_node *node, ir_node *right) { \
1419   assert(node->op == op_##OP);                         \
1420   set_irn_n(node, node->op->op_index + 1, right);      \
1421 }
1422
1423 #define UNOP(OP)                                  \
1424 ir_node *get_##OP##_op(const ir_node *node) {     \
1425   assert(node->op == op_##OP);                    \
1426   return get_irn_n(node, node->op->op_index);     \
1427 }                                                 \
1428 void set_##OP##_op (ir_node *node, ir_node *op) { \
1429   assert(node->op == op_##OP);                    \
1430   set_irn_n(node, node->op->op_index, op);        \
1431 }
1432
1433 #define BINOP_MEM(OP)                         \
1434 BINOP(OP)                                     \
1435                                               \
1436 ir_node *                                     \
1437 get_##OP##_mem(ir_node *node) {               \
1438   assert(node->op == op_##OP);                \
1439   return get_irn_n(node, 0);                  \
1440 }                                             \
1441                                               \
1442 void                                          \
1443 set_##OP##_mem(ir_node *node, ir_node *mem) { \
1444   assert(node->op == op_##OP);                \
1445   set_irn_n(node, 0, mem);                    \
1446 }
1447
1448 #define DIVOP(OP)                                       \
1449 BINOP_MEM(OP)                                           \
1450                                                         \
1451 ir_mode *get_##OP##_resmode(const ir_node *node) {      \
1452   assert(node->op == op_##OP);                          \
1453   return node->attr.divmod.res_mode;                    \
1454 }                                                       \
1455                                                         \
1456 void set_##OP##_resmode(ir_node *node, ir_mode *mode) { \
1457   assert(node->op == op_##OP);                          \
1458   node->attr.divmod.res_mode = mode;                    \
1459 }
1460
1461
1462 BINOP(Add)
1463 BINOP(Sub)
1464 UNOP(Minus)
1465 BINOP(Mul)
1466 DIVOP(Quot)
1467 DIVOP(DivMod)
1468 DIVOP(Div)
1469 DIVOP(Mod)
1470 UNOP(Abs)
1471 BINOP(And)
1472 BINOP(Or)
1473 BINOP(Eor)
1474 UNOP(Not)
1475 BINOP(Shl)
1476 BINOP(Shr)
1477 BINOP(Shrs)
1478 BINOP(Rot)
1479 BINOP(Cmp)
1480 UNOP(Conv)
1481 UNOP(Cast)
1482
1483 int get_Conv_strict(ir_node *node) {
1484         assert(node->op == op_Conv);
1485         return node->attr.conv.strict;
1486 }
1487
1488 void set_Conv_strict(ir_node *node, int strict_flag) {
1489         assert(node->op == op_Conv);
1490         node->attr.conv.strict = (char)strict_flag;
1491 }
1492
1493 ir_type *
1494 get_Cast_type(ir_node *node) {
1495         assert(node->op == op_Cast);
1496         return node->attr.cast.totype;
1497 }
1498
1499 void
1500 set_Cast_type(ir_node *node, ir_type *to_tp) {
1501         assert(node->op == op_Cast);
1502         node->attr.cast.totype = to_tp;
1503 }
1504
1505
1506 /* Checks for upcast.
1507  *
1508  * Returns true if the Cast node casts a class type to a super type.
1509  */
1510 int is_Cast_upcast(ir_node *node) {
1511         ir_type *totype   = get_Cast_type(node);
1512         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1513         ir_graph *myirg = get_irn_irg(node);
1514
1515         assert(get_irg_typeinfo_state(myirg) == ir_typeinfo_consistent);
1516         assert(fromtype);
1517
1518         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1519                 totype   = get_pointer_points_to_type(totype);
1520                 fromtype = get_pointer_points_to_type(fromtype);
1521         }
1522
1523         assert(fromtype);
1524
1525         if (!is_Class_type(totype)) return 0;
1526         return is_SubClass_of(fromtype, totype);
1527 }
1528
1529 /* Checks for downcast.
1530  *
1531  * Returns true if the Cast node casts a class type to a sub type.
1532  */
1533 int is_Cast_downcast(ir_node *node) {
1534         ir_type *totype   = get_Cast_type(node);
1535         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1536
1537         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1538         assert(fromtype);
1539
1540         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1541                 totype   = get_pointer_points_to_type(totype);
1542                 fromtype = get_pointer_points_to_type(fromtype);
1543         }
1544
1545         assert(fromtype);
1546
1547         if (!is_Class_type(totype)) return 0;
1548         return is_SubClass_of(totype, fromtype);
1549 }
1550
1551 int
1552 (is_unop)(const ir_node *node) {
1553         return _is_unop(node);
1554 }
1555
1556 ir_node *
1557 get_unop_op(const ir_node *node) {
1558         if (node->op->opar == oparity_unary)
1559                 return get_irn_n(node, node->op->op_index);
1560
1561         assert(node->op->opar == oparity_unary);
1562         return NULL;
1563 }
1564
1565 void
1566 set_unop_op(ir_node *node, ir_node *op) {
1567         if (node->op->opar == oparity_unary)
1568                 set_irn_n(node, node->op->op_index, op);
1569
1570         assert(node->op->opar == oparity_unary);
1571 }
1572
1573 int
1574 (is_binop)(const ir_node *node) {
1575         return _is_binop(node);
1576 }
1577
1578 ir_node *
1579 get_binop_left(const ir_node *node) {
1580         assert(node->op->opar == oparity_binary);
1581         return get_irn_n(node, node->op->op_index);
1582 }
1583
1584 void
1585 set_binop_left(ir_node *node, ir_node *left) {
1586         assert(node->op->opar == oparity_binary);
1587         set_irn_n(node, node->op->op_index, left);
1588 }
1589
1590 ir_node *
1591 get_binop_right(const ir_node *node) {
1592         assert(node->op->opar == oparity_binary);
1593         return get_irn_n(node, node->op->op_index + 1);
1594 }
1595
1596 void
1597 set_binop_right(ir_node *node, ir_node *right) {
1598         assert(node->op->opar == oparity_binary);
1599         set_irn_n(node, node->op->op_index + 1, right);
1600 }
1601
1602 int is_Phi(const ir_node *n) {
1603         ir_op *op;
1604
1605         assert(n);
1606         op = get_irn_op(n);
1607
1608         if (op == op_Filter) return get_interprocedural_view();
1609
1610         if (op == op_Phi)
1611                 return ((get_irg_phase_state(get_irn_irg(n)) !=  phase_building) ||
1612                         (get_irn_arity(n) > 0));
1613
1614         return 0;
1615 }
1616
1617 int is_Phi0(const ir_node *n) {
1618         assert(n);
1619
1620         return ((get_irn_op(n) == op_Phi) &&
1621                 (get_irn_arity(n) == 0) &&
1622                 (get_irg_phase_state(get_irn_irg(n)) ==  phase_building));
1623 }
1624
1625 ir_node **
1626 get_Phi_preds_arr(ir_node *node) {
1627   assert(node->op == op_Phi);
1628   return (ir_node **)&(get_irn_in(node)[1]);
1629 }
1630
1631 int
1632 get_Phi_n_preds(const ir_node *node) {
1633         assert(is_Phi(node) || is_Phi0(node));
1634         return (get_irn_arity(node));
1635 }
1636
1637 /*
1638 void set_Phi_n_preds(ir_node *node, int n_preds) {
1639         assert(node->op == op_Phi);
1640 }
1641 */
1642
1643 ir_node *
1644 get_Phi_pred(const ir_node *node, int pos) {
1645         assert(is_Phi(node) || is_Phi0(node));
1646         return get_irn_n(node, pos);
1647 }
1648
1649 void
1650 set_Phi_pred(ir_node *node, int pos, ir_node *pred) {
1651         assert(is_Phi(node) || is_Phi0(node));
1652         set_irn_n(node, pos, pred);
1653 }
1654
1655
1656 int is_memop(ir_node *node) {
1657         return ((get_irn_op(node) == op_Load) || (get_irn_op(node) == op_Store));
1658 }
1659
1660 ir_node *get_memop_mem(ir_node *node) {
1661         assert(is_memop(node));
1662         return get_irn_n(node, 0);
1663 }
1664
1665 void set_memop_mem(ir_node *node, ir_node *mem) {
1666         assert(is_memop(node));
1667         set_irn_n(node, 0, mem);
1668 }
1669
1670 ir_node *get_memop_ptr(ir_node *node) {
1671         assert(is_memop(node));
1672         return get_irn_n(node, 1);
1673 }
1674
1675 void set_memop_ptr(ir_node *node, ir_node *ptr) {
1676         assert(is_memop(node));
1677         set_irn_n(node, 1, ptr);
1678 }
1679
1680 ir_node *
1681 get_Load_mem(ir_node *node) {
1682         assert(node->op == op_Load);
1683         return get_irn_n(node, 0);
1684 }
1685
1686 void
1687 set_Load_mem(ir_node *node, ir_node *mem) {
1688         assert(node->op == op_Load);
1689         set_irn_n(node, 0, mem);
1690 }
1691
1692 ir_node *
1693 get_Load_ptr(ir_node *node) {
1694         assert(node->op == op_Load);
1695         return get_irn_n(node, 1);
1696 }
1697
1698 void
1699 set_Load_ptr(ir_node *node, ir_node *ptr) {
1700         assert(node->op == op_Load);
1701         set_irn_n(node, 1, ptr);
1702 }
1703
1704 ir_mode *
1705 get_Load_mode(ir_node *node) {
1706         assert(node->op == op_Load);
1707         return node->attr.load.load_mode;
1708 }
1709
1710 void
1711 set_Load_mode(ir_node *node, ir_mode *mode) {
1712         assert(node->op == op_Load);
1713         node->attr.load.load_mode = mode;
1714 }
1715
1716 ir_volatility
1717 get_Load_volatility(ir_node *node) {
1718         assert(node->op == op_Load);
1719         return node->attr.load.volatility;
1720 }
1721
1722 void
1723 set_Load_volatility(ir_node *node, ir_volatility volatility) {
1724         assert(node->op == op_Load);
1725         node->attr.load.volatility = volatility;
1726 }
1727
1728
1729 ir_node *
1730 get_Store_mem(ir_node *node) {
1731         assert(node->op == op_Store);
1732         return get_irn_n(node, 0);
1733 }
1734
1735 void
1736 set_Store_mem(ir_node *node, ir_node *mem) {
1737         assert(node->op == op_Store);
1738         set_irn_n(node, 0, mem);
1739 }
1740
1741 ir_node *
1742 get_Store_ptr(ir_node *node) {
1743         assert(node->op == op_Store);
1744         return get_irn_n(node, 1);
1745 }
1746
1747 void
1748 set_Store_ptr(ir_node *node, ir_node *ptr) {
1749         assert(node->op == op_Store);
1750         set_irn_n(node, 1, ptr);
1751 }
1752
1753 ir_node *
1754 get_Store_value(ir_node *node) {
1755         assert(node->op == op_Store);
1756         return get_irn_n(node, 2);
1757 }
1758
1759 void
1760 set_Store_value(ir_node *node, ir_node *value) {
1761         assert(node->op == op_Store);
1762         set_irn_n(node, 2, value);
1763 }
1764
1765 ir_volatility
1766 get_Store_volatility(ir_node *node) {
1767         assert(node->op == op_Store);
1768         return node->attr.store.volatility;
1769 }
1770
1771 void
1772 set_Store_volatility(ir_node *node, ir_volatility volatility) {
1773         assert(node->op == op_Store);
1774         node->attr.store.volatility = volatility;
1775 }
1776
1777
1778 ir_node *
1779 get_Alloc_mem(ir_node *node) {
1780         assert(node->op == op_Alloc);
1781         return get_irn_n(node, 0);
1782 }
1783
1784 void
1785 set_Alloc_mem(ir_node *node, ir_node *mem) {
1786         assert(node->op == op_Alloc);
1787         set_irn_n(node, 0, mem);
1788 }
1789
1790 ir_node *
1791 get_Alloc_size(ir_node *node) {
1792         assert(node->op == op_Alloc);
1793         return get_irn_n(node, 1);
1794 }
1795
1796 void
1797 set_Alloc_size(ir_node *node, ir_node *size) {
1798         assert(node->op == op_Alloc);
1799         set_irn_n(node, 1, size);
1800 }
1801
1802 ir_type *
1803 get_Alloc_type(ir_node *node) {
1804         assert(node->op == op_Alloc);
1805         return node->attr.alloc.type = skip_tid(node->attr.alloc.type);
1806 }
1807
1808 void
1809 set_Alloc_type(ir_node *node, ir_type *tp) {
1810         assert(node->op == op_Alloc);
1811         node->attr.alloc.type = tp;
1812 }
1813
1814 where_alloc
1815 get_Alloc_where(ir_node *node) {
1816         assert(node->op == op_Alloc);
1817         return node->attr.alloc.where;
1818 }
1819
1820 void
1821 set_Alloc_where(ir_node *node, where_alloc where) {
1822         assert(node->op == op_Alloc);
1823         node->attr.alloc.where = where;
1824 }
1825
1826
1827 ir_node *
1828 get_Free_mem(ir_node *node) {
1829         assert(node->op == op_Free);
1830         return get_irn_n(node, 0);
1831 }
1832
1833 void
1834 set_Free_mem(ir_node *node, ir_node *mem) {
1835         assert(node->op == op_Free);
1836         set_irn_n(node, 0, mem);
1837 }
1838
1839 ir_node *
1840 get_Free_ptr(ir_node *node) {
1841         assert(node->op == op_Free);
1842         return get_irn_n(node, 1);
1843 }
1844
1845 void
1846 set_Free_ptr(ir_node *node, ir_node *ptr) {
1847         assert(node->op == op_Free);
1848         set_irn_n(node, 1, ptr);
1849 }
1850
1851 ir_node *
1852 get_Free_size(ir_node *node) {
1853         assert(node->op == op_Free);
1854         return get_irn_n(node, 2);
1855 }
1856
1857 void
1858 set_Free_size(ir_node *node, ir_node *size) {
1859         assert(node->op == op_Free);
1860         set_irn_n(node, 2, size);
1861 }
1862
1863 ir_type *
1864 get_Free_type(ir_node *node) {
1865         assert(node->op == op_Free);
1866         return node->attr.free.type = skip_tid(node->attr.free.type);
1867 }
1868
1869 void
1870 set_Free_type(ir_node *node, ir_type *tp) {
1871         assert(node->op == op_Free);
1872         node->attr.free.type = tp;
1873 }
1874
1875 where_alloc
1876 get_Free_where(ir_node *node) {
1877         assert(node->op == op_Free);
1878         return node->attr.free.where;
1879 }
1880
1881 void
1882 set_Free_where(ir_node *node, where_alloc where) {
1883         assert(node->op == op_Free);
1884         node->attr.free.where = where;
1885 }
1886
1887 ir_node **get_Sync_preds_arr(ir_node *node) {
1888         assert(node->op == op_Sync);
1889         return (ir_node **)&(get_irn_in(node)[1]);
1890 }
1891
1892 int get_Sync_n_preds(ir_node *node) {
1893         assert(node->op == op_Sync);
1894         return (get_irn_arity(node));
1895 }
1896
1897 /*
1898 void set_Sync_n_preds(ir_node *node, int n_preds) {
1899         assert(node->op == op_Sync);
1900 }
1901 */
1902
1903 ir_node *get_Sync_pred(ir_node *node, int pos) {
1904         assert(node->op == op_Sync);
1905         return get_irn_n(node, pos);
1906 }
1907
1908 void set_Sync_pred(ir_node *node, int pos, ir_node *pred) {
1909         assert(node->op == op_Sync);
1910         set_irn_n(node, pos, pred);
1911 }
1912
1913 /* Add a new Sync predecessor */
1914 void add_Sync_pred(ir_node *node, ir_node *pred) {
1915         assert(node->op == op_Sync);
1916         add_irn_n(node, pred);
1917 }
1918
1919 /* Returns the source language type of a Proj node. */
1920 ir_type *get_Proj_type(ir_node *n) {
1921         ir_type *tp   = firm_unknown_type;
1922         ir_node *pred = get_Proj_pred(n);
1923
1924         switch (get_irn_opcode(pred)) {
1925         case iro_Proj: {
1926                 ir_node *pred_pred;
1927                 /* Deal with Start / Call here: we need to know the Proj Nr. */
1928                 assert(get_irn_mode(pred) == mode_T);
1929                 pred_pred = get_Proj_pred(pred);
1930                 if (get_irn_op(pred_pred) == op_Start)  {
1931                         ir_type *mtp = get_entity_type(get_irg_entity(get_irn_irg(pred_pred)));
1932                         tp = get_method_param_type(mtp, get_Proj_proj(n));
1933                 } else if (get_irn_op(pred_pred) == op_Call) {
1934                         ir_type *mtp = get_Call_type(pred_pred);
1935                         tp = get_method_res_type(mtp, get_Proj_proj(n));
1936                 }
1937         } break;
1938         case iro_Start: break;
1939         case iro_Call: break;
1940         case iro_Load: {
1941                 ir_node *a = get_Load_ptr(pred);
1942                 if (is_Sel(a))
1943                         tp = get_entity_type(get_Sel_entity(a));
1944         } break;
1945         default:
1946                 break;
1947         }
1948         return tp;
1949 }
1950
1951 ir_node *
1952 get_Proj_pred(const ir_node *node) {
1953         assert(is_Proj(node));
1954         return get_irn_n(node, 0);
1955 }
1956
1957 void
1958 set_Proj_pred(ir_node *node, ir_node *pred) {
1959         assert(is_Proj(node));
1960         set_irn_n(node, 0, pred);
1961 }
1962
1963 long
1964 get_Proj_proj(const ir_node *node) {
1965         assert(is_Proj(node));
1966         if (get_irn_opcode(node) == iro_Proj) {
1967                 return node->attr.proj;
1968         } else {
1969                 assert(get_irn_opcode(node) == iro_Filter);
1970                 return node->attr.filter.proj;
1971         }
1972 }
1973
1974 void
1975 set_Proj_proj(ir_node *node, long proj) {
1976         assert(node->op == op_Proj);
1977         node->attr.proj = proj;
1978 }
1979
1980 ir_node **
1981 get_Tuple_preds_arr(ir_node *node) {
1982         assert(node->op == op_Tuple);
1983         return (ir_node **)&(get_irn_in(node)[1]);
1984 }
1985
1986 int
1987 get_Tuple_n_preds(ir_node *node) {
1988         assert(node->op == op_Tuple);
1989         return (get_irn_arity(node));
1990 }
1991
1992 /*
1993 void
1994 set_Tuple_n_preds(ir_node *node, int n_preds) {
1995         assert(node->op == op_Tuple);
1996 }
1997 */
1998
1999 ir_node *
2000 get_Tuple_pred (ir_node *node, int pos) {
2001   assert(node->op == op_Tuple);
2002   return get_irn_n(node, pos);
2003 }
2004
2005 void
2006 set_Tuple_pred(ir_node *node, int pos, ir_node *pred) {
2007         assert(node->op == op_Tuple);
2008         set_irn_n(node, pos, pred);
2009 }
2010
2011 ir_node *
2012 get_Id_pred(ir_node *node) {
2013         assert(node->op == op_Id);
2014         return get_irn_n(node, 0);
2015 }
2016
2017 void
2018 set_Id_pred(ir_node *node, ir_node *pred) {
2019         assert(node->op == op_Id);
2020         set_irn_n(node, 0, pred);
2021 }
2022
2023 ir_node *get_Confirm_value(ir_node *node) {
2024         assert(node->op == op_Confirm);
2025         return get_irn_n(node, 0);
2026 }
2027
2028 void set_Confirm_value(ir_node *node, ir_node *value) {
2029         assert(node->op == op_Confirm);
2030         set_irn_n(node, 0, value);
2031 }
2032
2033 ir_node *get_Confirm_bound(ir_node *node) {
2034         assert(node->op == op_Confirm);
2035         return get_irn_n(node, 1);
2036 }
2037
2038 void set_Confirm_bound(ir_node *node, ir_node *bound) {
2039         assert(node->op == op_Confirm);
2040         set_irn_n(node, 0, bound);
2041 }
2042
2043 pn_Cmp get_Confirm_cmp(const ir_node *node) {
2044         assert(node->op == op_Confirm);
2045         return node->attr.confirm.cmp;
2046 }
2047
2048 void set_Confirm_cmp(ir_node *node, pn_Cmp cmp) {
2049         assert(node->op == op_Confirm);
2050         node->attr.confirm.cmp = cmp;
2051 }
2052
2053 ir_node *
2054 get_Filter_pred(ir_node *node) {
2055         assert(node->op == op_Filter);
2056         return node->in[1];
2057 }
2058
2059 void
2060 set_Filter_pred(ir_node *node, ir_node *pred) {
2061         assert(node->op == op_Filter);
2062         node->in[1] = pred;
2063 }
2064
2065 long
2066 get_Filter_proj(ir_node *node) {
2067         assert(node->op == op_Filter);
2068         return node->attr.filter.proj;
2069 }
2070
2071 void
2072 set_Filter_proj(ir_node *node, long proj) {
2073         assert(node->op == op_Filter);
2074         node->attr.filter.proj = proj;
2075 }
2076
2077 /* Don't use get_irn_arity, get_irn_n in implementation as access
2078    shall work independent of view!!! */
2079 void set_Filter_cg_pred_arr(ir_node * node, int arity, ir_node ** in) {
2080         assert(node->op == op_Filter);
2081         if (node->attr.filter.in_cg == NULL || arity != ARR_LEN(node->attr.filter.in_cg) - 1) {
2082                 node->attr.filter.in_cg = NEW_ARR_D(ir_node *, current_ir_graph->obst, arity + 1);
2083                 node->attr.filter.backedge = NEW_ARR_D (int, current_ir_graph->obst, arity);
2084                 memset(node->attr.filter.backedge, 0, sizeof(int) * arity);
2085                 node->attr.filter.in_cg[0] = node->in[0];
2086         }
2087         memcpy(node->attr.filter.in_cg + 1, in, sizeof(ir_node *) * arity);
2088 }
2089
2090 void set_Filter_cg_pred(ir_node * node, int pos, ir_node * pred) {
2091         assert(node->op == op_Filter && node->attr.filter.in_cg &&
2092                0 <= pos && pos < ARR_LEN(node->attr.filter.in_cg) - 1);
2093         node->attr.filter.in_cg[pos + 1] = pred;
2094 }
2095
2096 int get_Filter_n_cg_preds(ir_node *node) {
2097         assert(node->op == op_Filter && node->attr.filter.in_cg);
2098         return (ARR_LEN(node->attr.filter.in_cg) - 1);
2099 }
2100
2101 ir_node *get_Filter_cg_pred(ir_node *node, int pos) {
2102         int arity;
2103         assert(node->op == op_Filter && node->attr.filter.in_cg &&
2104                0 <= pos);
2105         arity = ARR_LEN(node->attr.filter.in_cg);
2106         assert(pos < arity - 1);
2107         return node->attr.filter.in_cg[pos + 1];
2108 }
2109
2110 /* Mux support */
2111 ir_node *get_Mux_sel(ir_node *node) {
2112         if (node->op == op_Psi) {
2113                 assert(get_irn_arity(node) == 3);
2114                 return get_Psi_cond(node, 0);
2115         }
2116         assert(node->op == op_Mux);
2117         return node->in[1];
2118 }
2119
2120 void set_Mux_sel(ir_node *node, ir_node *sel) {
2121         if (node->op == op_Psi) {
2122                 assert(get_irn_arity(node) == 3);
2123                 set_Psi_cond(node, 0, sel);
2124         } else {
2125                 assert(node->op == op_Mux);
2126                 node->in[1] = sel;
2127         }
2128 }
2129
2130 ir_node *get_Mux_false(ir_node *node) {
2131         if (node->op == op_Psi) {
2132                 assert(get_irn_arity(node) == 3);
2133                 return get_Psi_default(node);
2134         }
2135         assert(node->op == op_Mux);
2136         return node->in[2];
2137 }
2138
2139 void set_Mux_false(ir_node *node, ir_node *ir_false) {
2140         if (node->op == op_Psi) {
2141                 assert(get_irn_arity(node) == 3);
2142                 set_Psi_default(node, ir_false);
2143         } else {
2144                 assert(node->op == op_Mux);
2145                 node->in[2] = ir_false;
2146         }
2147 }
2148
2149 ir_node *get_Mux_true(ir_node *node) {
2150         if (node->op == op_Psi) {
2151                 assert(get_irn_arity(node) == 3);
2152                 return get_Psi_val(node, 0);
2153         }
2154         assert(node->op == op_Mux);
2155         return node->in[3];
2156 }
2157
2158 void set_Mux_true(ir_node *node, ir_node *ir_true) {
2159         if (node->op == op_Psi) {
2160                 assert(get_irn_arity(node) == 3);
2161                 set_Psi_val(node, 0, ir_true);
2162         } else {
2163                 assert(node->op == op_Mux);
2164                 node->in[3] = ir_true;
2165         }
2166 }
2167
2168 /* Psi support */
2169 ir_node *get_Psi_cond(ir_node *node, int pos) {
2170         int num_conds = get_Psi_n_conds(node);
2171         assert(node->op == op_Psi);
2172         assert(pos < num_conds);
2173         return get_irn_n(node, 2 * pos);
2174 }
2175
2176 void set_Psi_cond(ir_node *node, int pos, ir_node *cond) {
2177         int num_conds = get_Psi_n_conds(node);
2178         assert(node->op == op_Psi);
2179         assert(pos < num_conds);
2180         set_irn_n(node, 2 * pos, cond);
2181 }
2182
2183 ir_node *get_Psi_val(ir_node *node, int pos) {
2184         int num_vals = get_Psi_n_conds(node);
2185         assert(node->op == op_Psi);
2186         assert(pos < num_vals);
2187         return get_irn_n(node, 2 * pos + 1);
2188 }
2189
2190 void set_Psi_val(ir_node *node, int pos, ir_node *val) {
2191         int num_vals = get_Psi_n_conds(node);
2192         assert(node->op == op_Psi);
2193         assert(pos < num_vals);
2194         set_irn_n(node, 2 * pos + 1, val);
2195 }
2196
2197 ir_node *get_Psi_default(ir_node *node) {
2198         int def_pos = get_irn_arity(node) - 1;
2199         assert(node->op == op_Psi);
2200         return get_irn_n(node, def_pos);
2201 }
2202
2203 void set_Psi_default(ir_node *node, ir_node *val) {
2204         int def_pos = get_irn_arity(node);
2205         assert(node->op == op_Psi);
2206         set_irn_n(node, def_pos, val);
2207 }
2208
2209 int (get_Psi_n_conds)(ir_node *node) {
2210         return _get_Psi_n_conds(node);
2211 }
2212
2213 /* CopyB support */
2214 ir_node *get_CopyB_mem(ir_node *node) {
2215         assert(node->op == op_CopyB);
2216         return get_irn_n(node, 0);
2217 }
2218
2219 void set_CopyB_mem(ir_node *node, ir_node *mem) {
2220         assert(node->op == op_CopyB);
2221         set_irn_n(node, 0, mem);
2222 }
2223
2224 ir_node *get_CopyB_dst(ir_node *node) {
2225         assert(node->op == op_CopyB);
2226         return get_irn_n(node, 1);
2227 }
2228
2229 void set_CopyB_dst(ir_node *node, ir_node *dst) {
2230         assert(node->op == op_CopyB);
2231         set_irn_n(node, 1, dst);
2232 }
2233
2234 ir_node *get_CopyB_src (ir_node *node) {
2235   assert(node->op == op_CopyB);
2236   return get_irn_n(node, 2);
2237 }
2238
2239 void set_CopyB_src(ir_node *node, ir_node *src) {
2240         assert(node->op == op_CopyB);
2241         set_irn_n(node, 2, src);
2242 }
2243
2244 ir_type *get_CopyB_type(ir_node *node) {
2245         assert(node->op == op_CopyB);
2246         return node->attr.copyb.data_type;
2247 }
2248
2249 void set_CopyB_type(ir_node *node, ir_type *data_type) {
2250         assert(node->op == op_CopyB && data_type);
2251         node->attr.copyb.data_type = data_type;
2252 }
2253
2254
2255 ir_type *
2256 get_InstOf_type(ir_node *node) {
2257         assert(node->op = op_InstOf);
2258         return node->attr.instof.type;
2259 }
2260
2261 void
2262 set_InstOf_type(ir_node *node, ir_type *type) {
2263         assert(node->op = op_InstOf);
2264         node->attr.instof.type = type;
2265 }
2266
2267 ir_node *
2268 get_InstOf_store(ir_node *node) {
2269         assert(node->op = op_InstOf);
2270         return get_irn_n(node, 0);
2271 }
2272
2273 void
2274 set_InstOf_store(ir_node *node, ir_node *obj) {
2275         assert(node->op = op_InstOf);
2276         set_irn_n(node, 0, obj);
2277 }
2278
2279 ir_node *
2280 get_InstOf_obj(ir_node *node) {
2281         assert(node->op = op_InstOf);
2282         return get_irn_n(node, 1);
2283 }
2284
2285 void
2286 set_InstOf_obj(ir_node *node, ir_node *obj) {
2287         assert(node->op = op_InstOf);
2288         set_irn_n(node, 1, obj);
2289 }
2290
2291 /* Returns the memory input of a Raise operation. */
2292 ir_node *
2293 get_Raise_mem(ir_node *node) {
2294         assert(node->op == op_Raise);
2295         return get_irn_n(node, 0);
2296 }
2297
2298 void
2299 set_Raise_mem(ir_node *node, ir_node *mem) {
2300         assert(node->op == op_Raise);
2301         set_irn_n(node, 0, mem);
2302 }
2303
2304 ir_node *
2305 get_Raise_exo_ptr(ir_node *node) {
2306         assert(node->op == op_Raise);
2307         return get_irn_n(node, 1);
2308 }
2309
2310 void
2311 set_Raise_exo_ptr(ir_node *node, ir_node *exo_ptr) {
2312         assert(node->op == op_Raise);
2313         set_irn_n(node, 1, exo_ptr);
2314 }
2315
2316 /* Bound support */
2317
2318 /* Returns the memory input of a Bound operation. */
2319 ir_node *get_Bound_mem(ir_node *bound) {
2320         assert(bound->op == op_Bound);
2321         return get_irn_n(bound, 0);
2322 }
2323
2324 void set_Bound_mem(ir_node *bound, ir_node *mem) {
2325         assert(bound->op == op_Bound);
2326         set_irn_n(bound, 0, mem);
2327 }
2328
2329 /* Returns the index input of a Bound operation. */
2330 ir_node *get_Bound_index(ir_node *bound) {
2331         assert(bound->op == op_Bound);
2332         return get_irn_n(bound, 1);
2333 }
2334
2335 void set_Bound_index(ir_node *bound, ir_node *idx) {
2336         assert(bound->op == op_Bound);
2337         set_irn_n(bound, 1, idx);
2338 }
2339
2340 /* Returns the lower bound input of a Bound operation. */
2341 ir_node *get_Bound_lower(ir_node *bound) {
2342         assert(bound->op == op_Bound);
2343         return get_irn_n(bound, 2);
2344 }
2345
2346 void set_Bound_lower(ir_node *bound, ir_node *lower) {
2347         assert(bound->op == op_Bound);
2348         set_irn_n(bound, 2, lower);
2349 }
2350
2351 /* Returns the upper bound input of a Bound operation. */
2352 ir_node *get_Bound_upper(ir_node *bound) {
2353         assert(bound->op == op_Bound);
2354         return get_irn_n(bound, 3);
2355 }
2356
2357 void set_Bound_upper(ir_node *bound, ir_node *upper) {
2358         assert(bound->op == op_Bound);
2359         set_irn_n(bound, 3, upper);
2360 }
2361
2362 /* Return the operand of a Pin node. */
2363 ir_node *get_Pin_op(const ir_node *pin) {
2364         assert(pin->op == op_Pin);
2365         return get_irn_n(pin, 0);
2366 }
2367
2368 void set_Pin_op(ir_node *pin, ir_node *node) {
2369         assert(pin->op == op_Pin);
2370         set_irn_n(pin, 0, node);
2371 }
2372
2373 /* Return the assembler text of an ASM pseudo node. */
2374 ident *get_ASM_text(const ir_node *node) {
2375         assert(node->op == op_ASM);
2376         return node->attr.assem.asm_text;
2377 }
2378
2379 /* Return the number of input constraints for an ASM node. */
2380 int get_ASM_n_input_constraints(const ir_node *node) {
2381         assert(node->op == op_ASM);
2382         return ARR_LEN(node->attr.assem.inputs);
2383 }
2384
2385 /* Return the input constraints for an ASM node. This is a flexible array. */
2386 const ir_asm_constraint *get_ASM_input_constraints(const ir_node *node) {
2387         assert(node->op == op_ASM);
2388         return node->attr.assem.inputs;
2389 }
2390
2391 /* Return the number of output constraints for an ASM node.  */
2392 int get_ASM_n_output_constraints(const ir_node *node) {
2393         assert(node->op == op_ASM);
2394         return ARR_LEN(node->attr.assem.outputs);
2395 }
2396
2397 /* Return the output constraints for an ASM node. */
2398 const ir_asm_constraint *get_ASM_output_constraints(const ir_node *node) {
2399         assert(node->op == op_ASM);
2400         return node->attr.assem.outputs;
2401 }
2402
2403 /* Return the number of clobbered registers for an ASM node.  */
2404 int get_ASM_n_clobbers(const ir_node *node) {
2405         assert(node->op == op_ASM);
2406         return ARR_LEN(node->attr.assem.clobber);
2407 }
2408
2409 /* Return the list of clobbered registers for an ASM node. */
2410 ident **get_ASM_clobbers(const ir_node *node) {
2411         assert(node->op == op_ASM);
2412         return node->attr.assem.clobber;
2413 }
2414
2415 /* returns the graph of a node */
2416 ir_graph *
2417 get_irn_irg(const ir_node *node) {
2418         /*
2419          * Do not use get_nodes_Block() here, because this
2420          * will check the pinned state.
2421          * However even a 'wrong' block is always in the proper
2422          * irg.
2423          */
2424         if (! is_Block(node))
2425                 node = get_irn_n(node, -1);
2426         if (is_Bad(node))  /* sometimes bad is predecessor of nodes instead of block: in case of optimization */
2427                 node = get_irn_n(node, -1);
2428         assert(get_irn_op(node) == op_Block);
2429         return node->attr.block.irg;
2430 }
2431
2432
2433 /*----------------------------------------------------------------*/
2434 /*  Auxiliary routines                                            */
2435 /*----------------------------------------------------------------*/
2436
2437 ir_node *
2438 skip_Proj(ir_node *node) {
2439         /* don't assert node !!! */
2440         if (node == NULL)
2441                 return NULL;
2442
2443         if (is_Proj(node))
2444                 node = get_Proj_pred(node);
2445
2446         return node;
2447 }
2448
2449 const ir_node *
2450 skip_Proj_const(const ir_node *node) {
2451         /* don't assert node !!! */
2452         if (node == NULL)
2453                 return NULL;
2454
2455         if (is_Proj(node))
2456                 node = get_Proj_pred(node);
2457
2458         return node;
2459 }
2460
2461 ir_node *
2462 skip_Tuple(ir_node *node) {
2463   ir_node *pred;
2464   ir_op   *op;
2465
2466   if (!get_opt_normalize()) return node;
2467
2468 restart:
2469         if (get_irn_op(node) == op_Proj) {
2470             pred = get_Proj_pred(node);
2471             op   = get_irn_op(pred);
2472
2473                 /*
2474                  * Looks strange but calls get_irn_op() only once
2475                  * in most often cases.
2476                  */
2477                 if (op == op_Proj) { /* nested Tuple ? */
2478                     pred = skip_Tuple(pred);
2479                     op   = get_irn_op(pred);
2480
2481                         if (op == op_Tuple) {
2482                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
2483                                 goto restart;
2484                         }
2485                 } else if (op == op_Tuple) {
2486                         node = get_Tuple_pred(pred, get_Proj_proj(node));
2487                         goto restart;
2488                 }
2489         }
2490         return node;
2491 }
2492
2493 /* returns operand of node if node is a Cast */
2494 ir_node *skip_Cast(ir_node *node) {
2495         if (get_irn_op(node) == op_Cast)
2496                 return get_Cast_op(node);
2497         return node;
2498 }
2499
2500 /* returns operand of node if node is a Confirm */
2501 ir_node *skip_Confirm(ir_node *node) {
2502         if (get_irn_op(node) == op_Confirm)
2503                 return get_Confirm_value(node);
2504         return node;
2505 }
2506
2507 /* skip all high-level ops */
2508 ir_node *skip_HighLevel(ir_node *node) {
2509         if (is_op_highlevel(get_irn_op(node)))
2510                 return get_irn_n(node, 0);
2511         return node;
2512 }
2513
2514
2515 /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
2516  * than any other approach, as Id chains are resolved and all point to the real node, or
2517  * all id's are self loops.
2518  *
2519  * Note: This function takes 10% of mostly ANY the compiler run, so it's
2520  * a little bit "hand optimized".
2521  *
2522  * Moreover, it CANNOT be switched off using get_opt_normalize() ...
2523  */
2524 ir_node *
2525 skip_Id(ir_node *node) {
2526         ir_node *pred;
2527         /* don't assert node !!! */
2528
2529         if (!node || (node->op != op_Id)) return node;
2530
2531         /* Don't use get_Id_pred():  We get into an endless loop for
2532            self-referencing Ids. */
2533         pred = node->in[0+1];
2534
2535         if (pred->op != op_Id) return pred;
2536
2537         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
2538                 ir_node *rem_pred, *res;
2539
2540                 if (pred->op != op_Id) return pred; /* shortcut */
2541                 rem_pred = pred;
2542
2543                 assert(get_irn_arity (node) > 0);
2544
2545                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
2546                 res = skip_Id(rem_pred);
2547                 if (res->op == op_Id) /* self-loop */ return node;
2548
2549                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
2550                 return res;
2551         } else {
2552                 return node;
2553         }
2554 }
2555
2556 void skip_Id_and_store(ir_node **node) {
2557         ir_node *n = *node;
2558
2559         if (!n || (n->op != op_Id)) return;
2560
2561         /* Don't use get_Id_pred():  We get into an endless loop for
2562            self-referencing Ids. */
2563         *node = skip_Id(n);
2564 }
2565
2566 int
2567 (is_Bad)(const ir_node *node) {
2568         return _is_Bad(node);
2569 }
2570
2571 int
2572 (is_NoMem)(const ir_node *node) {
2573         return _is_NoMem(node);
2574 }
2575
2576 int
2577 (is_Minus)(const ir_node *node) {
2578         return _is_Minus(node);
2579 }
2580
2581 int
2582 (is_Mod)(const ir_node *node) {
2583         return _is_Mod(node);
2584 }
2585
2586 int
2587 (is_Div)(const ir_node *node) {
2588         return _is_Div(node);
2589 }
2590
2591 int
2592 (is_DivMod)(const ir_node *node) {
2593         return _is_DivMod(node);
2594 }
2595
2596 int
2597 (is_Quot)(const ir_node *node) {
2598         return _is_Quot(node);
2599 }
2600
2601 int
2602 (is_Add)(const ir_node *node) {
2603         return _is_Add(node);
2604 }
2605
2606 int
2607 (is_And)(const ir_node *node) {
2608         return _is_And(node);
2609 }
2610
2611 int
2612 (is_Or)(const ir_node *node) {
2613         return _is_Or(node);
2614 }
2615
2616 int
2617 (is_Eor)(const ir_node *node) {
2618         return _is_Eor(node);
2619 }
2620
2621 int
2622 (is_Sub)(const ir_node *node) {
2623         return _is_Sub(node);
2624 }
2625
2626 int
2627 (is_Not)(const ir_node *node) {
2628         return _is_Not(node);
2629 }
2630
2631 int
2632 (is_Psi)(const ir_node *node) {
2633         return _is_Psi(node);
2634 }
2635
2636 int
2637 (is_Tuple)(const ir_node *node) {
2638         return _is_Tuple(node);
2639 }
2640
2641 int
2642 (is_Start)(const ir_node *node) {
2643   return _is_Start(node);
2644 }
2645
2646 int
2647 (is_End)(const ir_node *node) {
2648         return _is_End(node);
2649 }
2650
2651 int
2652 (is_Const)(const ir_node *node) {
2653         return _is_Const(node);
2654 }
2655
2656 int
2657 (is_Conv)(const ir_node *node) {
2658         return _is_Conv(node);
2659 }
2660
2661 int
2662 (is_no_Block)(const ir_node *node) {
2663         return _is_no_Block(node);
2664 }
2665
2666 int
2667 (is_Block)(const ir_node *node) {
2668         return _is_Block(node);
2669 }
2670
2671 /* returns true if node is an Unknown node. */
2672 int
2673 (is_Unknown)(const ir_node *node) {
2674         return _is_Unknown(node);
2675 }
2676
2677 /* returns true if node is a Return node. */
2678 int
2679 (is_Return)(const ir_node *node) {
2680         return _is_Return(node);
2681 }
2682
2683 /* returns true if node is a Call node. */
2684 int
2685 (is_Call)(const ir_node *node) {
2686         return _is_Call(node);
2687 }
2688
2689 /* returns true if node is a Sel node. */
2690 int
2691 (is_Sel)(const ir_node *node) {
2692         return _is_Sel(node);
2693 }
2694
2695 /* returns true if node is a Mux node or a Psi with only one condition. */
2696 int
2697 (is_Mux)(const ir_node *node) {
2698         return _is_Mux(node);
2699 }
2700
2701 /* returns true if node is a Load node. */
2702 int
2703 (is_Load)(const ir_node *node) {
2704         return _is_Load(node);
2705 }
2706
2707 /* returns true if node is a Load node. */
2708 int
2709 (is_Store)(const ir_node *node) {
2710         return _is_Store(node);
2711 }
2712
2713 /* returns true if node is a Sync node. */
2714 int
2715 (is_Sync)(const ir_node *node) {
2716         return _is_Sync(node);
2717 }
2718
2719 /* returns true if node is a Confirm node. */
2720 int
2721 (is_Confirm)(const ir_node *node) {
2722         return _is_Confirm(node);
2723 }
2724
2725 /* returns true if node is a Pin node. */
2726 int
2727 (is_Pin)(const ir_node *node) {
2728         return _is_Pin(node);
2729 }
2730
2731 /* returns true if node is a SymConst node. */
2732 int
2733 (is_SymConst)(const ir_node *node) {
2734         return _is_SymConst(node);
2735 }
2736
2737 /* returns true if node is a Cond node. */
2738 int
2739 (is_Cond)(const ir_node *node) {
2740         return _is_Cond(node);
2741 }
2742
2743 int
2744 (is_CopyB)(const ir_node *node) {
2745         return _is_CopyB(node);
2746 }
2747
2748 /* returns true if node is a Cmp node. */
2749 int
2750 (is_Cmp)(const ir_node *node) {
2751         return _is_Cmp(node);
2752 }
2753
2754 /* returns true if node is an Alloc node. */
2755 int
2756 (is_Alloc)(const ir_node *node) {
2757         return _is_Alloc(node);
2758 }
2759
2760 /* returns true if a node is a Jmp node. */
2761 int
2762 (is_Jmp)(const ir_node *node) {
2763         return _is_Jmp(node);
2764 }
2765
2766 /* returns true if a node is a Raise node. */
2767 int
2768 (is_Raise)(const ir_node *node) {
2769         return _is_Raise(node);
2770 }
2771
2772 /* returns true if a node is an ASM node. */
2773 int
2774 (is_ASM)(const ir_node *node) {
2775         return _is_ASM(node);
2776 }
2777
2778 int
2779 is_Proj(const ir_node *node) {
2780         assert(node);
2781         return node->op == op_Proj ||
2782                (!get_interprocedural_view() && node->op == op_Filter);
2783 }
2784
2785 /* Returns true if the operation manipulates control flow. */
2786 int
2787 is_cfop(const ir_node *node) {
2788         return is_cfopcode(get_irn_op(node));
2789 }
2790
2791 /* Returns true if the operation manipulates interprocedural control flow:
2792    CallBegin, EndReg, EndExcept */
2793 int is_ip_cfop(const ir_node *node) {
2794         return is_ip_cfopcode(get_irn_op(node));
2795 }
2796
2797 /* Returns true if the operation can change the control flow because
2798    of an exception. */
2799 int
2800 is_fragile_op(const ir_node *node) {
2801         return is_op_fragile(get_irn_op(node));
2802 }
2803
2804 /* Returns the memory operand of fragile operations. */
2805 ir_node *get_fragile_op_mem(ir_node *node) {
2806         assert(node && is_fragile_op(node));
2807
2808         switch (get_irn_opcode(node)) {
2809         case iro_Call  :
2810         case iro_Quot  :
2811         case iro_DivMod:
2812         case iro_Div   :
2813         case iro_Mod   :
2814         case iro_Load  :
2815         case iro_Store :
2816         case iro_Alloc :
2817         case iro_Bound :
2818                 return get_irn_n(node, 0);
2819         case iro_Bad   :
2820         case iro_Unknown:
2821                 return node;
2822         default: ;
2823                 assert(0 && "should not be reached");
2824                 return NULL;
2825         }
2826 }
2827
2828 /* Returns the result mode of a Div operation. */
2829 ir_mode *get_divop_resmod(const ir_node *node) {
2830         switch (get_irn_opcode(node)) {
2831         case iro_Quot  : return get_Quot_resmode(node);
2832         case iro_DivMod: return get_DivMod_resmode(node);
2833         case iro_Div   : return get_Div_resmode(node);
2834         case iro_Mod   : return get_Mod_resmode(node);
2835         default: ;
2836                 assert(0 && "should not be reached");
2837                 return NULL;
2838         }
2839 }
2840
2841 /* Returns true if the operation is a forking control flow operation. */
2842 int (is_irn_forking)(const ir_node *node) {
2843         return _is_irn_forking(node);
2844 }
2845
2846 /* Return the type associated with the value produced by n
2847  * if the node remarks this type as it is the case for
2848  * Cast, Const, SymConst and some Proj nodes. */
2849 ir_type *(get_irn_type)(ir_node *node) {
2850         return _get_irn_type(node);
2851 }
2852
2853 /* Return the type attribute of a node n (SymConst, Call, Alloc, Free,
2854    Cast) or NULL.*/
2855 ir_type *(get_irn_type_attr)(ir_node *node) {
2856         return _get_irn_type_attr(node);
2857 }
2858
2859 /* Return the entity attribute of a node n (SymConst, Sel) or NULL. */
2860 ir_entity *(get_irn_entity_attr)(ir_node *node) {
2861         return _get_irn_entity_attr(node);
2862 }
2863
2864 /* Returns non-zero for constant-like nodes. */
2865 int (is_irn_constlike)(const ir_node *node) {
2866         return _is_irn_constlike(node);
2867 }
2868
2869 /*
2870  * Returns non-zero for nodes that are allowed to have keep-alives and
2871  * are neither Block nor PhiM.
2872  */
2873 int (is_irn_keep)(const ir_node *node) {
2874         return _is_irn_keep(node);
2875 }
2876
2877 /*
2878  * Returns non-zero for nodes that are always placed in the start block.
2879  */
2880 int (is_irn_start_block_placed)(const ir_node *node) {
2881         return _is_irn_start_block_placed(node);
2882 }
2883
2884 /* Returns non-zero for nodes that are machine operations. */
2885 int (is_irn_machine_op)(const ir_node *node) {
2886         return _is_irn_machine_op(node);
2887 }
2888
2889 /* Returns non-zero for nodes that are machine operands. */
2890 int (is_irn_machine_operand)(const ir_node *node) {
2891         return _is_irn_machine_operand(node);
2892 }
2893
2894 /* Returns non-zero for nodes that have the n'th user machine flag set. */
2895 int (is_irn_machine_user)(const ir_node *node, unsigned n) {
2896         return _is_irn_machine_user(node, n);
2897 }
2898
2899
2900 /* Gets the string representation of the jump prediction .*/
2901 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred) {
2902         switch (pred) {
2903         default:
2904         case COND_JMP_PRED_NONE:  return "no prediction";
2905         case COND_JMP_PRED_TRUE:  return "true taken";
2906         case COND_JMP_PRED_FALSE: return "false taken";
2907         }
2908 }
2909
2910 /* Returns the conditional jump prediction of a Cond node. */
2911 cond_jmp_predicate (get_Cond_jmp_pred)(const ir_node *cond) {
2912         return _get_Cond_jmp_pred(cond);
2913 }
2914
2915 /* Sets a new conditional jump prediction. */
2916 void (set_Cond_jmp_pred)(ir_node *cond, cond_jmp_predicate pred) {
2917         _set_Cond_jmp_pred(cond, pred);
2918 }
2919
2920 /** the get_type operation must be always implemented and return a firm type */
2921 static ir_type *get_Default_type(ir_node *n) {
2922         (void) n;
2923         return get_unknown_type();
2924 }
2925
2926 /* Sets the get_type operation for an ir_op_ops. */
2927 ir_op_ops *firm_set_default_get_type(ir_opcode code, ir_op_ops *ops) {
2928         switch (code) {
2929         case iro_Const:    ops->get_type = get_Const_type; break;
2930         case iro_SymConst: ops->get_type = get_SymConst_value_type; break;
2931         case iro_Cast:     ops->get_type = get_Cast_type; break;
2932         case iro_Proj:     ops->get_type = get_Proj_type; break;
2933         default:
2934                 /* not allowed to be NULL */
2935                 if (! ops->get_type)
2936                         ops->get_type = get_Default_type;
2937                 break;
2938         }
2939         return ops;
2940 }
2941
2942 /** Return the attribute type of a SymConst node if exists */
2943 static ir_type *get_SymConst_attr_type(ir_node *self) {
2944         symconst_kind kind = get_SymConst_kind(self);
2945         if (SYMCONST_HAS_TYPE(kind))
2946                 return get_SymConst_type(self);
2947         return NULL;
2948 }
2949
2950 /** Return the attribute entity of a SymConst node if exists */
2951 static ir_entity *get_SymConst_attr_entity(ir_node *self) {
2952         symconst_kind kind = get_SymConst_kind(self);
2953         if (SYMCONST_HAS_ENT(kind))
2954                 return get_SymConst_entity(self);
2955         return NULL;
2956 }
2957
2958 /** the get_type_attr operation must be always implemented */
2959 static ir_type *get_Null_type(ir_node *n) {
2960         (void) n;
2961         return firm_unknown_type;
2962 }
2963
2964 /* Sets the get_type operation for an ir_op_ops. */
2965 ir_op_ops *firm_set_default_get_type_attr(ir_opcode code, ir_op_ops *ops) {
2966         switch (code) {
2967         case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
2968         case iro_Call:     ops->get_type_attr = get_Call_type; break;
2969         case iro_Alloc:    ops->get_type_attr = get_Alloc_type; break;
2970         case iro_Free:     ops->get_type_attr = get_Free_type; break;
2971         case iro_Cast:     ops->get_type_attr = get_Cast_type; break;
2972         default:
2973                 /* not allowed to be NULL */
2974                 if (! ops->get_type_attr)
2975                         ops->get_type_attr = get_Null_type;
2976                 break;
2977         }
2978         return ops;
2979 }
2980
2981 /** the get_entity_attr operation must be always implemented */
2982 static ir_entity *get_Null_ent(ir_node *n) {
2983         (void) n;
2984         return NULL;
2985 }
2986
2987 /* Sets the get_type operation for an ir_op_ops. */
2988 ir_op_ops *firm_set_default_get_entity_attr(ir_opcode code, ir_op_ops *ops) {
2989         switch (code) {
2990         case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
2991         case iro_Sel:      ops->get_entity_attr = get_Sel_entity; break;
2992         default:
2993                 /* not allowed to be NULL */
2994                 if (! ops->get_entity_attr)
2995                         ops->get_entity_attr = get_Null_ent;
2996                 break;
2997         }
2998         return ops;
2999 }
3000
3001 /* Sets the debug information of a node. */
3002 void (set_irn_dbg_info)(ir_node *n, dbg_info *db) {
3003         _set_irn_dbg_info(n, db);
3004 }
3005
3006 /**
3007  * Returns the debug information of an node.
3008  *
3009  * @param n   The node.
3010  */
3011 dbg_info *(get_irn_dbg_info)(const ir_node *n) {
3012         return _get_irn_dbg_info(n);
3013 }
3014
3015
3016
3017 #ifdef DEBUG_libfirm
3018 void dump_irn(ir_node *n) {
3019         int i, arity = get_irn_arity(n);
3020         printf("%s%s: %ld (%p)\n", get_irn_opname(n), get_mode_name(get_irn_mode(n)), get_irn_node_nr(n), (void *)n);
3021         if (!is_Block(n)) {
3022                 ir_node *pred = get_irn_n(n, -1);
3023                 printf("  block: %s%s: %ld (%p)\n", get_irn_opname(pred), get_mode_name(get_irn_mode(pred)),
3024                         get_irn_node_nr(pred), (void *)pred);
3025         }
3026         printf("  preds: \n");
3027         for (i = 0; i < arity; ++i) {
3028                 ir_node *pred = get_irn_n(n, i);
3029                 printf("    %d: %s%s: %ld (%p)\n", i, get_irn_opname(pred), get_mode_name(get_irn_mode(pred)),
3030                         get_irn_node_nr(pred), (void *)pred);
3031         }
3032 }
3033
3034 #else  /* DEBUG_libfirm */
3035 void dump_irn(ir_node *n) {}
3036 #endif /* DEBUG_libfirm */