8b956f353adc63b356f0a0538eb0734fc55c293b
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  */
25 #include "config.h"
26
27 #include <string.h>
28
29 #include "pset_new.h"
30 #include "ident.h"
31 #include "irnode_t.h"
32 #include "irgraph_t.h"
33 #include "irmode_t.h"
34 #include "irbackedge_t.h"
35 #include "irdump.h"
36 #include "irop_t.h"
37 #include "irprog_t.h"
38 #include "iredgekinds.h"
39 #include "iredges_t.h"
40 #include "ircons.h"
41 #include "error.h"
42
43 #include "irhooks.h"
44 #include "irtools.h"
45 #include "util.h"
46
47 #include "beinfo.h"
48
49 /* some constants fixing the positions of nodes predecessors
50    in the in array */
51 #define CALL_PARAM_OFFSET     (n_Call_max+1)
52 #define BUILTIN_PARAM_OFFSET  (n_Builtin_max+1)
53 #define SEL_INDEX_OFFSET      (n_Sel_max+1)
54 #define RETURN_RESULT_OFFSET  (n_Return_max+1)
55 #define END_KEEPALIVE_OFFSET  0
56
57 static const char *relation_names [] = {
58         "false",
59         "equal",
60         "less",
61         "less_equal",
62         "greater",
63         "greater_equal",
64         "less_greater",
65         "less_equal_greater",
66         "unordered",
67         "unordered_equal",
68         "unordered_less",
69         "unordered_less_equal",
70         "unordered_greater",
71         "unordered_greater_equal",
72         "not_equal",
73         "true"
74 };
75
76 const char *get_relation_string(ir_relation relation)
77 {
78         assert(relation < (ir_relation)ARRAY_SIZE(relation_names));
79         return relation_names[relation];
80 }
81
82 ir_relation get_negated_relation(ir_relation relation)
83 {
84         return relation ^ ir_relation_true;
85 }
86
87 ir_relation get_inversed_relation(ir_relation relation)
88 {
89         ir_relation code    = relation & ~(ir_relation_less|ir_relation_greater);
90         bool        less    = relation & ir_relation_less;
91         bool        greater = relation & ir_relation_greater;
92         code |= (less ? ir_relation_greater : 0) | (greater ? ir_relation_less : 0);
93         return code;
94 }
95
96 /**
97  * Indicates, whether additional data can be registered to ir nodes.
98  * If set to 1, this is not possible anymore.
99  */
100 static int forbid_new_data = 0;
101
102 unsigned firm_add_node_size = 0;
103
104
105 unsigned firm_register_additional_node_data(unsigned size)
106 {
107         assert(!forbid_new_data && "Too late to register additional node data");
108
109         if (forbid_new_data)
110                 return 0;
111
112         return firm_add_node_size += size;
113 }
114
115
116 void init_irnode(void)
117 {
118         /* Forbid the addition of new data to an ir node. */
119         forbid_new_data = 1;
120 }
121
122 struct struct_align {
123         char c;
124         struct s {
125                 int i;
126                 float f;
127                 double d;
128         } s;
129 };
130
131 ir_node *new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op,
132                      ir_mode *mode, int arity, ir_node *const *in)
133 {
134         ir_node *res;
135         unsigned align = offsetof(struct struct_align, s) - 1;
136         unsigned add_node_size = (firm_add_node_size + align) & ~align;
137         size_t node_size = offsetof(ir_node, attr) + op->attr_size + add_node_size;
138         char *p;
139         int i;
140
141         assert(irg);
142         assert(op);
143         assert(mode);
144         p = (char*)obstack_alloc(irg->obst, node_size);
145         memset(p, 0, node_size);
146         res = (ir_node *)(p + add_node_size);
147
148         res->kind     = k_ir_node;
149         res->op       = op;
150         res->mode     = mode;
151         res->visited  = 0;
152         res->node_idx = irg_register_node_idx(irg, res);
153         res->link     = NULL;
154         res->deps     = NULL;
155
156         if (arity < 0) {
157                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
158         } else {
159                 /* not nice but necessary: End and Sync must always have a flexible array */
160                 if (op == op_End || op == op_Sync)
161                         res->in = NEW_ARR_F(ir_node *, (arity+1));
162                 else
163                         res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
164                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
165         }
166
167         res->in[0]   = block;
168         set_irn_dbg_info(res, db);
169         res->out     = NULL;
170         res->node_nr = get_irp_new_node_nr();
171
172         for (i = 0; i < EDGE_KIND_LAST; ++i) {
173                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
174                 /* edges will be build immediately */
175                 res->edge_info[i].edges_built = 1;
176                 res->edge_info[i].out_count = 0;
177         }
178
179         /* don't put this into the for loop, arity is -1 for some nodes! */
180         edges_notify_edge(res, -1, res->in[0], NULL, irg);
181         for (i = 1; i <= arity; ++i)
182                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
183
184         hook_new_node(irg, res);
185         if (get_irg_phase_state(irg) == phase_backend) {
186                 be_info_new_node(irg, res);
187         }
188
189         return res;
190 }
191
192 int (is_ir_node)(const void *thing)
193 {
194         return is_ir_node_(thing);
195 }
196
197 int (get_irn_arity)(const ir_node *node)
198 {
199         return get_irn_arity_(node);
200 }
201
202 ir_node **get_irn_in(const ir_node *node)
203 {
204         return node->in;
205 }
206
207 void set_irn_in(ir_node *node, int arity, ir_node **in)
208 {
209         int i;
210         ir_node *** pOld_in;
211         ir_graph *irg = get_irn_irg(node);
212
213         pOld_in = &node->in;
214
215 #ifndef NDEBUG
216         assert(node != NULL && node->kind == k_ir_node);
217         assert(arity >= 0);
218         for (i = 0; i < arity; ++i) {
219                 assert(in[i] != NULL && in[0]->kind == k_ir_node);
220         }
221 #endif
222
223         for (i = 0; i < arity; i++) {
224                 if (i < (int)ARR_LEN(*pOld_in)-1)
225                         edges_notify_edge(node, i, in[i], (*pOld_in)[i+1], irg);
226                 else
227                         edges_notify_edge(node, i, in[i], NULL,            irg);
228         }
229         for (;i < (int)ARR_LEN(*pOld_in)-1; i++) {
230                 edges_notify_edge(node, i, NULL, (*pOld_in)[i+1], irg);
231         }
232
233         if (arity != (int)ARR_LEN(*pOld_in) - 1) {
234                 ir_node * block = (*pOld_in)[0];
235                 *pOld_in = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
236                 (*pOld_in)[0] = block;
237         }
238         fix_backedges(irg->obst, node);
239
240         memcpy((*pOld_in) + 1, in, sizeof(ir_node *) * arity);
241
242         /* update irg flags */
243         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
244 }
245
246 ir_node *(get_irn_n)(const ir_node *node, int n)
247 {
248         return get_irn_n_(node, n);
249 }
250
251 void set_irn_n(ir_node *node, int n, ir_node *in)
252 {
253         ir_graph *irg = get_irn_irg(node);
254         assert(node && node->kind == k_ir_node);
255         assert(-1 <= n);
256         assert(n < get_irn_arity(node));
257         assert(in && in->kind == k_ir_node);
258
259         /* Call the hook */
260         hook_set_irn_n(node, n, in, node->in[n + 1]);
261
262         /* Here, we rely on src and tgt being in the current ir graph */
263         edges_notify_edge(node, n, in, node->in[n + 1], irg);
264
265         node->in[n + 1] = in;
266
267         /* update irg flags */
268         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
269 }
270
271 int add_irn_n(ir_node *node, ir_node *in)
272 {
273         int pos;
274         ir_graph *irg = get_irn_irg(node);
275
276         assert(node->op->opar == oparity_dynamic);
277         pos = ARR_LEN(node->in) - 1;
278         ARR_APP1(ir_node *, node->in, in);
279         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
280
281         /* Call the hook */
282         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
283
284         return pos;
285 }
286
287 void del_Sync_n(ir_node *n, int i)
288 {
289         int      arity     = get_Sync_n_preds(n);
290         ir_node *last_pred = get_Sync_pred(n, arity - 1);
291         set_Sync_pred(n, i, last_pred);
292         edges_notify_edge(n, arity - 1, NULL, last_pred, get_irn_irg(n));
293         ARR_SHRINKLEN(get_irn_in(n), arity);
294 }
295
296 int (get_irn_deps)(const ir_node *node)
297 {
298         return get_irn_deps_(node);
299 }
300
301 ir_node *(get_irn_dep)(const ir_node *node, int pos)
302 {
303         return get_irn_dep_(node, pos);
304 }
305
306 void (set_irn_dep)(ir_node *node, int pos, ir_node *dep)
307 {
308         set_irn_dep_(node, pos, dep);
309 }
310
311 int add_irn_dep(ir_node *node, ir_node *dep)
312 {
313         int res = 0;
314
315         /* DEP edges are only allowed in backend phase */
316         assert(get_irg_phase_state(get_irn_irg(node)) == phase_backend);
317         if (node->deps == NULL) {
318                 node->deps = NEW_ARR_F(ir_node *, 1);
319                 node->deps[0] = dep;
320         } else {
321                 int i, n;
322                 int first_zero = -1;
323
324                 for (i = 0, n = ARR_LEN(node->deps); i < n; ++i) {
325                         if (node->deps[i] == NULL)
326                                 first_zero = i;
327
328                         if (node->deps[i] == dep)
329                                 return i;
330                 }
331
332                 if (first_zero >= 0) {
333                         node->deps[first_zero] = dep;
334                         res = first_zero;
335                 } else {
336                         ARR_APP1(ir_node *, node->deps, dep);
337                         res = n;
338                 }
339         }
340
341         edges_notify_edge_kind(node, res, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
342
343         return res;
344 }
345
346 void add_irn_deps(ir_node *tgt, ir_node *src)
347 {
348         int i, n;
349
350         for (i = 0, n = get_irn_deps(src); i < n; ++i)
351                 add_irn_dep(tgt, get_irn_dep(src, i));
352 }
353
354
355 ir_mode *(get_irn_mode)(const ir_node *node)
356 {
357         return get_irn_mode_(node);
358 }
359
360 void (set_irn_mode)(ir_node *node, ir_mode *mode)
361 {
362         set_irn_mode_(node, mode);
363 }
364
365 ir_op *(get_irn_op)(const ir_node *node)
366 {
367         return get_irn_op_(node);
368 }
369
370 void (set_irn_op)(ir_node *node, ir_op *op)
371 {
372         set_irn_op_(node, op);
373 }
374
375 unsigned (get_irn_opcode)(const ir_node *node)
376 {
377         return get_irn_opcode_(node);
378 }
379
380 const char *get_irn_opname(const ir_node *node)
381 {
382         assert(node);
383         if (is_Phi0(node)) return "Phi0";
384         return get_id_str(node->op->name);
385 }
386
387 ident *get_irn_opident(const ir_node *node)
388 {
389         assert(node);
390         return node->op->name;
391 }
392
393 ir_visited_t (get_irn_visited)(const ir_node *node)
394 {
395         return get_irn_visited_(node);
396 }
397
398 void (set_irn_visited)(ir_node *node, ir_visited_t visited)
399 {
400         set_irn_visited_(node, visited);
401 }
402
403 void (mark_irn_visited)(ir_node *node)
404 {
405         mark_irn_visited_(node);
406 }
407
408 int (irn_visited)(const ir_node *node)
409 {
410         return irn_visited_(node);
411 }
412
413 int (irn_visited_else_mark)(ir_node *node)
414 {
415         return irn_visited_else_mark_(node);
416 }
417
418 void (set_irn_link)(ir_node *node, void *link)
419 {
420         set_irn_link_(node, link);
421 }
422
423 void *(get_irn_link)(const ir_node *node)
424 {
425         return get_irn_link_(node);
426 }
427
428 op_pin_state (get_irn_pinned)(const ir_node *node)
429 {
430         return get_irn_pinned_(node);
431 }
432
433 op_pin_state (is_irn_pinned_in_irg) (const ir_node *node)
434 {
435         return is_irn_pinned_in_irg_(node);
436 }
437
438 void set_irn_pinned(ir_node *node, op_pin_state state)
439 {
440         /* due to optimization an opt may be turned into a Tuple */
441         if (is_Tuple(node))
442                 return;
443
444         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
445         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
446
447         node->attr.except.pin_state = state;
448 }
449
450 long get_irn_node_nr(const ir_node *node)
451 {
452         assert(node);
453         return node->node_nr;
454 }
455
456 void *(get_irn_generic_attr)(ir_node *node)
457 {
458         assert(is_ir_node(node));
459         return get_irn_generic_attr_(node);
460 }
461
462 const void *(get_irn_generic_attr_const)(const ir_node *node)
463 {
464         assert(is_ir_node(node));
465         return get_irn_generic_attr_const_(node);
466 }
467
468 unsigned (get_irn_idx)(const ir_node *node)
469 {
470         assert(is_ir_node(node));
471         return get_irn_idx_(node);
472 }
473
474 int get_irn_pred_pos(ir_node *node, ir_node *arg)
475 {
476         int i;
477         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
478                 if (get_irn_n(node, i) == arg)
479                         return i;
480         }
481         return -1;
482 }
483
484 ir_node *(get_nodes_block)(const ir_node *node)
485 {
486         return get_nodes_block_(node);
487 }
488
489 void set_nodes_block(ir_node *node, ir_node *block)
490 {
491         assert(node->op != op_Block);
492         set_irn_n(node, -1, block);
493 }
494
495 ir_type *is_frame_pointer(const ir_node *n)
496 {
497         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
498                 ir_node *start = get_Proj_pred(n);
499                 if (is_Start(start)) {
500                         return get_irg_frame_type(get_irn_irg(start));
501                 }
502         }
503         return NULL;
504 }
505
506 ir_node **get_Block_cfgpred_arr(ir_node *node)
507 {
508         assert(is_Block(node));
509         return (ir_node **)&(get_irn_in(node)[1]);
510 }
511
512 int (get_Block_n_cfgpreds)(const ir_node *node)
513 {
514         return get_Block_n_cfgpreds_(node);
515 }
516
517 ir_node *(get_Block_cfgpred)(const ir_node *node, int pos)
518 {
519         return get_Block_cfgpred_(node, pos);
520 }
521
522 void set_Block_cfgpred(ir_node *node, int pos, ir_node *pred)
523 {
524         assert(is_Block(node));
525         set_irn_n(node, pos, pred);
526 }
527
528 int get_Block_cfgpred_pos(const ir_node *block, const ir_node *pred)
529 {
530         int i;
531
532         for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
533                 if (get_Block_cfgpred_block(block, i) == pred)
534                         return i;
535         }
536         return -1;
537 }
538
539 ir_node *(get_Block_cfgpred_block)(const ir_node *node, int pos)
540 {
541         return get_Block_cfgpred_block_(node, pos);
542 }
543
544 int get_Block_matured(const ir_node *node)
545 {
546         assert(is_Block(node));
547         return (int)node->attr.block.is_matured;
548 }
549
550 void set_Block_matured(ir_node *node, int matured)
551 {
552         assert(is_Block(node));
553         node->attr.block.is_matured = matured;
554 }
555
556 ir_visited_t (get_Block_block_visited)(const ir_node *node)
557 {
558         return get_Block_block_visited_(node);
559 }
560
561 void (set_Block_block_visited)(ir_node *node, ir_visited_t visit)
562 {
563         set_Block_block_visited_(node, visit);
564 }
565
566 void (mark_Block_block_visited)(ir_node *node)
567 {
568         mark_Block_block_visited_(node);
569 }
570
571 int (Block_block_visited)(const ir_node *node)
572 {
573         return Block_block_visited_(node);
574 }
575
576 ir_extblk *get_Block_extbb(const ir_node *block)
577 {
578         ir_extblk *res;
579         assert(is_Block(block));
580         res = block->attr.block.extblk;
581         assert(res == NULL || is_ir_extbb(res));
582         return res;
583 }
584
585 void set_Block_extbb(ir_node *block, ir_extblk *extblk)
586 {
587         assert(is_Block(block));
588         assert(extblk == NULL || is_ir_extbb(extblk));
589         block->attr.block.extblk = extblk;
590 }
591
592 ir_graph *(get_Block_irg)(const ir_node *block)
593 {
594         return get_Block_irg_(block);
595 }
596
597 ir_entity *create_Block_entity(ir_node *block)
598 {
599         ir_entity *entity;
600         assert(is_Block(block));
601
602         entity = block->attr.block.entity;
603         if (entity == NULL) {
604                 ir_label_t nr = get_irp_next_label_nr();
605                 entity = new_label_entity(nr);
606                 set_entity_visibility(entity, ir_visibility_local);
607                 set_entity_linkage(entity, IR_LINKAGE_CONSTANT);
608                 set_entity_compiler_generated(entity, 1);
609
610                 block->attr.block.entity = entity;
611         }
612         return entity;
613 }
614
615 ir_node *(get_Block_phis)(const ir_node *block)
616 {
617         return get_Block_phis_(block);
618 }
619
620 void (set_Block_phis)(ir_node *block, ir_node *phi)
621 {
622         set_Block_phis_(block, phi);
623 }
624
625 void (add_Block_phi)(ir_node *block, ir_node *phi)
626 {
627         add_Block_phi_(block, phi);
628 }
629
630 unsigned (get_Block_mark)(const ir_node *block)
631 {
632         return get_Block_mark_(block);
633 }
634
635 void (set_Block_mark)(ir_node *block, unsigned mark)
636 {
637         set_Block_mark_(block, mark);
638 }
639
640 int get_End_n_keepalives(const ir_node *end)
641 {
642         assert(is_End(end));
643         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
644 }
645
646 ir_node *get_End_keepalive(const ir_node *end, int pos)
647 {
648         assert(is_End(end));
649         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
650 }
651
652 void add_End_keepalive(ir_node *end, ir_node *ka)
653 {
654         assert(is_End(end));
655         add_irn_n(end, ka);
656 }
657
658 void set_End_keepalive(ir_node *end, int pos, ir_node *ka)
659 {
660         assert(is_End(end));
661         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
662 }
663
664 void set_End_keepalives(ir_node *end, int n, ir_node *in[])
665 {
666         size_t e;
667         int    i;
668         ir_graph *irg = get_irn_irg(end);
669
670         /* notify that edges are deleted */
671         for (e = END_KEEPALIVE_OFFSET; e < ARR_LEN(end->in) - 1; ++e) {
672                 edges_notify_edge(end, e, NULL, end->in[e + 1], irg);
673         }
674         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
675
676         for (i = 0; i < n; ++i) {
677                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
678                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
679         }
680
681         /* update irg flags */
682         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
683 }
684
685 void remove_End_keepalive(ir_node *end, ir_node *irn)
686 {
687         int      n = get_End_n_keepalives(end);
688         int      i, idx;
689         ir_graph *irg;
690
691         idx = -1;
692         for (i = n -1; i >= 0; --i) {
693                 ir_node *old_ka = end->in[1 + END_KEEPALIVE_OFFSET + i];
694
695                 /* find irn */
696                 if (old_ka == irn) {
697                         idx = i;
698                         goto found;
699                 }
700         }
701         return;
702 found:
703         irg = get_irn_irg(end);
704
705         /* remove the edge */
706         edges_notify_edge(end, idx, NULL, irn, irg);
707
708         if (idx != n - 1) {
709                 /* exchange with the last one */
710                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
711                 edges_notify_edge(end, n - 1, NULL, old, irg);
712                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
713                 edges_notify_edge(end, idx, old, NULL, irg);
714         }
715         /* now n - 1 keeps, 1 block input */
716         ARR_RESIZE(ir_node *, end->in, (n - 1) + 1 + END_KEEPALIVE_OFFSET);
717
718         /* update irg flags */
719         clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
720 }
721
722 void remove_End_Bads_and_doublets(ir_node *end)
723 {
724         pset_new_t keeps;
725         int        idx, n = get_End_n_keepalives(end);
726         ir_graph   *irg;
727         bool       changed = false;
728
729         if (n <= 0)
730                 return;
731
732         irg = get_irn_irg(end);
733         pset_new_init(&keeps);
734
735         for (idx = n - 1; idx >= 0; --idx) {
736                 ir_node *ka = get_End_keepalive(end, idx);
737
738                 if (is_Bad(ka) || is_NoMem(ka) || pset_new_contains(&keeps, ka)) {
739                         changed = true;
740                         /* remove the edge */
741                         edges_notify_edge(end, idx, NULL, ka, irg);
742
743                         if (idx != n - 1) {
744                                 /* exchange with the last one */
745                                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
746                                 edges_notify_edge(end, n - 1, NULL, old, irg);
747                                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
748                                 edges_notify_edge(end, idx, old, NULL, irg);
749                         }
750                         --n;
751                 } else {
752                         pset_new_insert(&keeps, ka);
753                 }
754         }
755         /* n keeps, 1 block input */
756         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
757
758         pset_new_destroy(&keeps);
759
760         if (changed) {
761                 clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_OUTS);
762         }
763 }
764
765 void free_End(ir_node *end)
766 {
767         assert(is_End(end));
768         end->kind = k_BAD;
769         DEL_ARR_F(end->in);
770         end->in = NULL;   /* @@@ make sure we get an error if we use the
771                              in array afterwards ... */
772 }
773
774 size_t get_Return_n_ress(const ir_node *node)
775 {
776         assert(is_Return(node));
777         return (size_t)(get_irn_arity(node) - RETURN_RESULT_OFFSET);
778 }
779
780 ir_node **get_Return_res_arr(ir_node *node)
781 {
782         assert(is_Return(node));
783         if (get_Return_n_ress(node) > 0)
784                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
785         else
786                 return NULL;
787 }
788
789 ir_node *get_Return_res(const ir_node *node, int pos)
790 {
791         assert(is_Return(node));
792         assert(pos >= 0);
793         assert(get_Return_n_ress(node) > (size_t)pos);
794         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
795 }
796
797 void set_Return_res(ir_node *node, int pos, ir_node *res)
798 {
799         assert(is_Return(node));
800         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
801 }
802
803 int (is_Const_null)(const ir_node *node)
804 {
805         return is_Const_null_(node);
806 }
807
808 int (is_Const_one)(const ir_node *node)
809 {
810         return is_Const_one_(node);
811 }
812
813 int (is_Const_all_one)(const ir_node *node)
814 {
815         return is_Const_all_one_(node);
816 }
817
818
819
820 symconst_kind get_SymConst_kind(const ir_node *node)
821 {
822         assert(is_SymConst(node));
823         return node->attr.symc.kind;
824 }
825
826 void set_SymConst_kind(ir_node *node, symconst_kind kind)
827 {
828         assert(is_SymConst(node));
829         node->attr.symc.kind = kind;
830 }
831
832 ir_type *get_SymConst_type(const ir_node *node)
833 {
834         /* the cast here is annoying, but we have to compensate for
835            the skip_tip() */
836         ir_node *irn = (ir_node *)node;
837         assert(is_SymConst(node) &&
838                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
839         return irn->attr.symc.sym.type_p;
840 }
841
842 void set_SymConst_type(ir_node *node, ir_type *tp)
843 {
844         assert(is_SymConst(node) &&
845                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
846         node->attr.symc.sym.type_p = tp;
847 }
848
849 ir_entity *get_SymConst_entity(const ir_node *node)
850 {
851         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
852         return node->attr.symc.sym.entity_p;
853 }
854
855 void set_SymConst_entity(ir_node *node, ir_entity *ent)
856 {
857         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
858         node->attr.symc.sym.entity_p  = ent;
859 }
860
861 ir_enum_const *get_SymConst_enum(const ir_node *node)
862 {
863         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
864         return node->attr.symc.sym.enum_p;
865 }
866
867 void set_SymConst_enum(ir_node *node, ir_enum_const *ec)
868 {
869         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
870         node->attr.symc.sym.enum_p  = ec;
871 }
872
873 union symconst_symbol
874 get_SymConst_symbol(const ir_node *node)
875 {
876         assert(is_SymConst(node));
877         return node->attr.symc.sym;
878 }
879
880 void set_SymConst_symbol(ir_node *node, union symconst_symbol sym)
881 {
882         assert(is_SymConst(node));
883         node->attr.symc.sym = sym;
884 }
885
886 int get_Sel_n_indexs(const ir_node *node)
887 {
888         assert(is_Sel(node));
889         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
890 }
891
892 ir_node **get_Sel_index_arr(ir_node *node)
893 {
894         assert(is_Sel(node));
895         if (get_Sel_n_indexs(node) > 0)
896                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
897         else
898                 return NULL;
899 }
900
901 ir_node *get_Sel_index(const ir_node *node, int pos)
902 {
903         assert(is_Sel(node));
904         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
905 }
906
907 void set_Sel_index(ir_node *node, int pos, ir_node *index)
908 {
909         assert(is_Sel(node));
910         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
911 }
912
913 ir_node **get_Call_param_arr(ir_node *node)
914 {
915         assert(is_Call(node));
916         return &get_irn_in(node)[CALL_PARAM_OFFSET + 1];
917 }
918
919 size_t get_Call_n_params(const ir_node *node)
920 {
921         assert(is_Call(node));
922         return (size_t) (get_irn_arity(node) - CALL_PARAM_OFFSET);
923 }
924
925 ir_node *get_Call_param(const ir_node *node, int pos)
926 {
927         assert(is_Call(node));
928         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
929 }
930
931 void set_Call_param(ir_node *node, int pos, ir_node *param)
932 {
933         assert(is_Call(node));
934         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
935 }
936
937 ir_node **get_Builtin_param_arr(ir_node *node)
938 {
939         assert(is_Builtin(node));
940         return &get_irn_in(node)[BUILTIN_PARAM_OFFSET + 1];
941 }
942
943 int get_Builtin_n_params(const ir_node *node)
944 {
945         assert(is_Builtin(node));
946         return (get_irn_arity(node) - BUILTIN_PARAM_OFFSET);
947 }
948
949 ir_node *get_Builtin_param(const ir_node *node, int pos)
950 {
951         assert(is_Builtin(node));
952         return get_irn_n(node, pos + BUILTIN_PARAM_OFFSET);
953 }
954
955 void set_Builtin_param(ir_node *node, int pos, ir_node *param)
956 {
957         assert(is_Builtin(node));
958         set_irn_n(node, pos + BUILTIN_PARAM_OFFSET, param);
959 }
960
961 const char *get_builtin_kind_name(ir_builtin_kind kind)
962 {
963 #define X(a)    case a: return #a
964         switch (kind) {
965                 X(ir_bk_trap);
966                 X(ir_bk_debugbreak);
967                 X(ir_bk_return_address);
968                 X(ir_bk_frame_address);
969                 X(ir_bk_prefetch);
970                 X(ir_bk_ffs);
971                 X(ir_bk_clz);
972                 X(ir_bk_ctz);
973                 X(ir_bk_popcount);
974                 X(ir_bk_parity);
975                 X(ir_bk_bswap);
976                 X(ir_bk_inport);
977                 X(ir_bk_outport);
978                 X(ir_bk_inner_trampoline);
979         }
980         return "<unknown>";
981 #undef X
982 }
983
984
985 int Call_has_callees(const ir_node *node)
986 {
987         assert(is_Call(node));
988         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
989                 (node->attr.call.callee_arr != NULL));
990 }
991
992 size_t get_Call_n_callees(const ir_node *node)
993 {
994   assert(is_Call(node) && node->attr.call.callee_arr);
995   return ARR_LEN(node->attr.call.callee_arr);
996 }
997
998 ir_entity *get_Call_callee(const ir_node *node, size_t pos)
999 {
1000         assert(pos < get_Call_n_callees(node));
1001         return node->attr.call.callee_arr[pos];
1002 }
1003
1004 void set_Call_callee_arr(ir_node *node, size_t n, ir_entity ** arr)
1005 {
1006         ir_graph *irg = get_irn_irg(node);
1007
1008         assert(is_Call(node));
1009         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
1010                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, irg->obst, n);
1011         }
1012         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
1013 }
1014
1015 void remove_Call_callee_arr(ir_node *node)
1016 {
1017         assert(is_Call(node));
1018         node->attr.call.callee_arr = NULL;
1019 }
1020
1021 int is_Cast_upcast(ir_node *node)
1022 {
1023         ir_type *totype   = get_Cast_type(node);
1024         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1025
1026         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1027         assert(fromtype);
1028
1029         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1030                 totype   = get_pointer_points_to_type(totype);
1031                 fromtype = get_pointer_points_to_type(fromtype);
1032         }
1033
1034         assert(fromtype);
1035
1036         if (!is_Class_type(totype)) return 0;
1037         return is_SubClass_of(fromtype, totype);
1038 }
1039
1040 int is_Cast_downcast(ir_node *node)
1041 {
1042         ir_type *totype   = get_Cast_type(node);
1043         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1044
1045         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1046         assert(fromtype);
1047
1048         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1049                 totype   = get_pointer_points_to_type(totype);
1050                 fromtype = get_pointer_points_to_type(fromtype);
1051         }
1052
1053         assert(fromtype);
1054
1055         if (!is_Class_type(totype)) return 0;
1056         return is_SubClass_of(totype, fromtype);
1057 }
1058
1059 int (is_unop)(const ir_node *node)
1060 {
1061         return is_unop_(node);
1062 }
1063
1064 ir_node *get_unop_op(const ir_node *node)
1065 {
1066         if (node->op->opar == oparity_unary)
1067                 return get_irn_n(node, node->op->op_index);
1068
1069         assert(node->op->opar == oparity_unary);
1070         return NULL;
1071 }
1072
1073 void set_unop_op(ir_node *node, ir_node *op)
1074 {
1075         if (node->op->opar == oparity_unary)
1076                 set_irn_n(node, node->op->op_index, op);
1077
1078         assert(node->op->opar == oparity_unary);
1079 }
1080
1081 int (is_binop)(const ir_node *node)
1082 {
1083         return is_binop_(node);
1084 }
1085
1086 ir_node *get_binop_left(const ir_node *node)
1087 {
1088         assert(node->op->opar == oparity_binary);
1089         return get_irn_n(node, node->op->op_index);
1090 }
1091
1092 void set_binop_left(ir_node *node, ir_node *left)
1093 {
1094         assert(node->op->opar == oparity_binary);
1095         set_irn_n(node, node->op->op_index, left);
1096 }
1097
1098 ir_node *get_binop_right(const ir_node *node)
1099 {
1100         assert(node->op->opar == oparity_binary);
1101         return get_irn_n(node, node->op->op_index + 1);
1102 }
1103
1104 void set_binop_right(ir_node *node, ir_node *right)
1105 {
1106         assert(node->op->opar == oparity_binary);
1107         set_irn_n(node, node->op->op_index + 1, right);
1108 }
1109
1110 int is_Phi0(const ir_node *n)
1111 {
1112         assert(n);
1113
1114         return ((get_irn_op(n) == op_Phi) &&
1115                 (get_irn_arity(n) == 0) &&
1116                 (get_irg_phase_state(get_irn_irg(n)) ==  phase_building));
1117 }
1118
1119 ir_node **get_Phi_preds_arr(ir_node *node)
1120 {
1121   assert(is_Phi(node));
1122   return (ir_node **)&(get_irn_in(node)[1]);
1123 }
1124
1125 int get_Phi_n_preds(const ir_node *node)
1126 {
1127         assert(is_Phi(node) || is_Phi0(node));
1128         return (get_irn_arity(node));
1129 }
1130
1131 ir_node *get_Phi_pred(const ir_node *node, int pos)
1132 {
1133         assert(is_Phi(node) || is_Phi0(node));
1134         return get_irn_n(node, pos);
1135 }
1136
1137 void set_Phi_pred(ir_node *node, int pos, ir_node *pred)
1138 {
1139         assert(is_Phi(node) || is_Phi0(node));
1140         set_irn_n(node, pos, pred);
1141 }
1142
1143 ir_node *(get_Phi_next)(const ir_node *phi)
1144 {
1145         return get_Phi_next_(phi);
1146 }
1147
1148 void (set_Phi_next)(ir_node *phi, ir_node *next)
1149 {
1150         set_Phi_next_(phi, next);
1151 }
1152
1153 int is_memop(const ir_node *node)
1154 {
1155         return is_op_uses_memory(get_irn_op(node));
1156 }
1157
1158 ir_node *get_memop_mem(const ir_node *node)
1159 {
1160         const ir_op *op = get_irn_op(node);
1161         assert(is_memop(node));
1162         return get_irn_n(node, op->memory_index);
1163 }
1164
1165 void set_memop_mem(ir_node *node, ir_node *mem)
1166 {
1167         const ir_op *op = get_irn_op(node);
1168         assert(is_memop(node));
1169         set_irn_n(node, op->memory_index, mem);
1170 }
1171
1172 ir_node **get_Sync_preds_arr(ir_node *node)
1173 {
1174         assert(is_Sync(node));
1175         return (ir_node **)&(get_irn_in(node)[1]);
1176 }
1177
1178 int get_Sync_n_preds(const ir_node *node)
1179 {
1180         assert(is_Sync(node));
1181         return (get_irn_arity(node));
1182 }
1183
1184 ir_node *get_Sync_pred(const ir_node *node, int pos)
1185 {
1186         assert(is_Sync(node));
1187         return get_irn_n(node, pos);
1188 }
1189
1190 void set_Sync_pred(ir_node *node, int pos, ir_node *pred)
1191 {
1192         assert(is_Sync(node));
1193         set_irn_n(node, pos, pred);
1194 }
1195
1196 void add_Sync_pred(ir_node *node, ir_node *pred)
1197 {
1198         assert(is_Sync(node));
1199         add_irn_n(node, pred);
1200 }
1201
1202 int (is_arg_Proj)(const ir_node *node)
1203 {
1204         return is_arg_Proj_(node);
1205 }
1206
1207 int is_x_except_Proj(const ir_node *node)
1208 {
1209         ir_node *pred;
1210         if (!is_Proj(node))
1211                 return false;
1212         pred = get_Proj_pred(node);
1213         if (!is_fragile_op(pred))
1214                 return false;
1215         return get_Proj_proj(node) == pred->op->pn_x_except;
1216 }
1217
1218 int is_x_regular_Proj(const ir_node *node)
1219 {
1220         ir_node *pred;
1221         if (!is_Proj(node))
1222                 return false;
1223         pred = get_Proj_pred(node);
1224         if (!is_fragile_op(pred))
1225                 return false;
1226         return get_Proj_proj(node) == pred->op->pn_x_regular;
1227 }
1228
1229 void ir_set_throws_exception(ir_node *node, int throws_exception)
1230 {
1231         except_attr *attr = &node->attr.except;
1232         assert(is_fragile_op(node));
1233         attr->throws_exception = throws_exception;
1234 }
1235
1236 int ir_throws_exception(const ir_node *node)
1237 {
1238         const except_attr *attr = &node->attr.except;
1239         assert(is_fragile_op(node));
1240         return attr->throws_exception;
1241 }
1242
1243 ir_node **get_Tuple_preds_arr(ir_node *node)
1244 {
1245         assert(is_Tuple(node));
1246         return (ir_node **)&(get_irn_in(node)[1]);
1247 }
1248
1249 int get_Tuple_n_preds(const ir_node *node)
1250 {
1251         assert(is_Tuple(node));
1252         return get_irn_arity(node);
1253 }
1254
1255 ir_node *get_Tuple_pred(const ir_node *node, int pos)
1256 {
1257   assert(is_Tuple(node));
1258   return get_irn_n(node, pos);
1259 }
1260
1261 void set_Tuple_pred(ir_node *node, int pos, ir_node *pred)
1262 {
1263         assert(is_Tuple(node));
1264         set_irn_n(node, pos, pred);
1265 }
1266
1267 size_t get_ASM_n_input_constraints(const ir_node *node)
1268 {
1269         assert(is_ASM(node));
1270         return ARR_LEN(node->attr.assem.input_constraints);
1271 }
1272
1273 size_t get_ASM_n_output_constraints(const ir_node *node)
1274 {
1275         assert(is_ASM(node));
1276         return ARR_LEN(node->attr.assem.output_constraints);
1277 }
1278
1279 size_t get_ASM_n_clobbers(const ir_node *node)
1280 {
1281         assert(is_ASM(node));
1282         return ARR_LEN(node->attr.assem.clobbers);
1283 }
1284
1285 ir_graph *(get_irn_irg)(const ir_node *node)
1286 {
1287         return get_irn_irg_(node);
1288 }
1289
1290 ir_node *skip_Proj(ir_node *node)
1291 {
1292         /* don't assert node !!! */
1293         if (node == NULL)
1294                 return NULL;
1295
1296         if (is_Proj(node))
1297                 node = get_Proj_pred(node);
1298
1299         return node;
1300 }
1301
1302 const ir_node *
1303 skip_Proj_const(const ir_node *node)
1304 {
1305         /* don't assert node !!! */
1306         if (node == NULL)
1307                 return NULL;
1308
1309         if (is_Proj(node))
1310                 node = get_Proj_pred(node);
1311
1312         return node;
1313 }
1314
1315 ir_node *skip_Tuple(ir_node *node)
1316 {
1317   ir_node *pred;
1318
1319 restart:
1320         if (is_Proj(node)) {
1321             pred = get_Proj_pred(node);
1322
1323                 if (is_Proj(pred)) { /* nested Tuple ? */
1324                     pred = skip_Tuple(pred);
1325
1326                         if (is_Tuple(pred)) {
1327                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
1328                                 goto restart;
1329                         }
1330                 } else if (is_Tuple(pred)) {
1331                         node = get_Tuple_pred(pred, get_Proj_proj(node));
1332                         goto restart;
1333                 }
1334         }
1335         return node;
1336 }
1337
1338 ir_node *skip_Cast(ir_node *node)
1339 {
1340         if (is_Cast(node))
1341                 return get_Cast_op(node);
1342         return node;
1343 }
1344
1345 const ir_node *skip_Cast_const(const ir_node *node)
1346 {
1347         if (is_Cast(node))
1348                 return get_Cast_op(node);
1349         return node;
1350 }
1351
1352 ir_node *skip_Pin(ir_node *node)
1353 {
1354         if (is_Pin(node))
1355                 return get_Pin_op(node);
1356         return node;
1357 }
1358
1359 ir_node *skip_Confirm(ir_node *node)
1360 {
1361         if (is_Confirm(node))
1362                 return get_Confirm_value(node);
1363         return node;
1364 }
1365
1366 ir_node *skip_HighLevel_ops(ir_node *node)
1367 {
1368         while (is_op_highlevel(get_irn_op(node))) {
1369                 node = get_irn_n(node, 0);
1370         }
1371         return node;
1372 }
1373
1374
1375 ir_node *skip_Id(ir_node *node)
1376 {
1377         /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
1378          * than any other approach, as Id chains are resolved and all point to the real node, or
1379          * all id's are self loops.
1380          *
1381          * Note: This function takes 10% of mostly ANY the compiler run, so it's
1382          * a little bit "hand optimized".
1383          */
1384         ir_node *pred;
1385         /* don't assert node !!! */
1386
1387         if (!node || (node->op != op_Id)) return node;
1388
1389         /* Don't use get_Id_pred():  We get into an endless loop for
1390            self-referencing Ids. */
1391         pred = node->in[0+1];
1392
1393         if (pred->op != op_Id) return pred;
1394
1395         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
1396                 ir_node *rem_pred, *res;
1397
1398                 if (pred->op != op_Id) return pred; /* shortcut */
1399                 rem_pred = pred;
1400
1401                 assert(get_irn_arity (node) > 0);
1402
1403                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
1404                 res = skip_Id(rem_pred);
1405                 if (is_Id(res)) /* self-loop */ return node;
1406
1407                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
1408                 return res;
1409         } else {
1410                 return node;
1411         }
1412 }
1413
1414 int (is_strictConv)(const ir_node *node)
1415 {
1416         return is_strictConv_(node);
1417 }
1418
1419 int (is_SymConst_addr_ent)(const ir_node *node)
1420 {
1421         return is_SymConst_addr_ent_(node);
1422 }
1423
1424 int is_cfop(const ir_node *node)
1425 {
1426         if (is_fragile_op(node) && ir_throws_exception(node))
1427                 return true;
1428
1429         return is_op_cfopcode(get_irn_op(node));
1430 }
1431
1432 int is_unknown_jump(const ir_node *node)
1433 {
1434         return is_op_unknown_jump(get_irn_op(node));
1435 }
1436
1437 int is_fragile_op(const ir_node *node)
1438 {
1439         return is_op_fragile(get_irn_op(node));
1440 }
1441
1442 int (is_irn_forking)(const ir_node *node)
1443 {
1444         return is_irn_forking_(node);
1445 }
1446
1447 void (copy_node_attr)(ir_graph *irg, const ir_node *old_node, ir_node *new_node)
1448 {
1449         copy_node_attr_(irg, old_node, new_node);
1450 }
1451
1452 ir_type *(get_irn_type_attr)(ir_node *node)
1453 {
1454         return get_irn_type_attr_(node);
1455 }
1456
1457 ir_entity *(get_irn_entity_attr)(ir_node *node)
1458 {
1459         return get_irn_entity_attr_(node);
1460 }
1461
1462 int (is_irn_constlike)(const ir_node *node)
1463 {
1464         return is_irn_constlike_(node);
1465 }
1466
1467 int (is_irn_keep)(const ir_node *node)
1468 {
1469         return is_irn_keep_(node);
1470 }
1471
1472 int (is_irn_start_block_placed)(const ir_node *node)
1473 {
1474         return is_irn_start_block_placed_(node);
1475 }
1476
1477 int (is_irn_cse_neutral)(const ir_node *node)
1478 {
1479         return is_irn_cse_neutral_(node);
1480 }
1481
1482 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred)
1483 {
1484 #define X(a)    case a: return #a
1485         switch (pred) {
1486                 X(COND_JMP_PRED_NONE);
1487                 X(COND_JMP_PRED_TRUE);
1488                 X(COND_JMP_PRED_FALSE);
1489         }
1490         return "<unknown>";
1491 #undef X
1492 }
1493
1494 /** Return the attribute type of a SymConst node if exists */
1495 static ir_type *get_SymConst_attr_type(const ir_node *self)
1496 {
1497         symconst_kind kind = get_SymConst_kind(self);
1498         if (SYMCONST_HAS_TYPE(kind))
1499                 return get_SymConst_type(self);
1500         return NULL;
1501 }
1502
1503 /** Return the attribute entity of a SymConst node if exists */
1504 static ir_entity *get_SymConst_attr_entity(const ir_node *self)
1505 {
1506         symconst_kind kind = get_SymConst_kind(self);
1507         if (SYMCONST_HAS_ENT(kind))
1508                 return get_SymConst_entity(self);
1509         return NULL;
1510 }
1511
1512 /** the get_type_attr operation must be always implemented */
1513 static ir_type *get_Null_type(const ir_node *n)
1514 {
1515         (void) n;
1516         return firm_unknown_type;
1517 }
1518
1519 void firm_set_default_get_type_attr(unsigned code, ir_op_ops *ops)
1520 {
1521         switch (code) {
1522         case iro_Alloc:    ops->get_type_attr = get_Alloc_type;         break;
1523         case iro_Builtin:  ops->get_type_attr = get_Builtin_type;       break;
1524         case iro_Call:     ops->get_type_attr = get_Call_type;          break;
1525         case iro_Cast:     ops->get_type_attr = get_Cast_type;          break;
1526         case iro_CopyB:    ops->get_type_attr = get_CopyB_type;         break;
1527         case iro_Free:     ops->get_type_attr = get_Free_type;          break;
1528         case iro_InstOf:   ops->get_type_attr = get_InstOf_type;        break;
1529         case iro_SymConst: ops->get_type_attr = get_SymConst_attr_type; break;
1530         default:
1531                 /* not allowed to be NULL */
1532                 if (! ops->get_type_attr)
1533                         ops->get_type_attr = get_Null_type;
1534                 break;
1535         }
1536 }
1537
1538 /** the get_entity_attr operation must be always implemented */
1539 static ir_entity *get_Null_ent(const ir_node *n)
1540 {
1541         (void) n;
1542         return NULL;
1543 }
1544
1545 void firm_set_default_get_entity_attr(unsigned code, ir_op_ops *ops)
1546 {
1547         switch (code) {
1548         case iro_SymConst: ops->get_entity_attr = get_SymConst_attr_entity; break;
1549         case iro_Sel:      ops->get_entity_attr = get_Sel_entity; break;
1550         case iro_Block:    ops->get_entity_attr = get_Block_entity; break;
1551         default:
1552                 /* not allowed to be NULL */
1553                 if (! ops->get_entity_attr)
1554                         ops->get_entity_attr = get_Null_ent;
1555                 break;
1556         }
1557 }
1558
1559 void (set_irn_dbg_info)(ir_node *n, dbg_info *db)
1560 {
1561         set_irn_dbg_info_(n, db);
1562 }
1563
1564 dbg_info *(get_irn_dbg_info)(const ir_node *n)
1565 {
1566         return get_irn_dbg_info_(n);
1567 }
1568
1569 ir_switch_table *ir_new_switch_table(ir_graph *irg, size_t n_entries)
1570 {
1571         struct obstack *obst = get_irg_obstack(irg);
1572         ir_switch_table *res = OALLOCFZ(obst, ir_switch_table, entries, n_entries);
1573         res->n_entries = n_entries;
1574         return res;
1575 }
1576
1577 void ir_switch_table_set(ir_switch_table *table, size_t n,
1578                          ir_tarval *min, ir_tarval *max, long pn)
1579 {
1580         ir_switch_table_entry *entry = ir_switch_table_get_entry(table, n);
1581         entry->min = min;
1582         entry->max = max;
1583         entry->pn  = pn;
1584 }
1585
1586 size_t (ir_switch_table_get_n_entries)(const ir_switch_table *table)
1587 {
1588         return ir_switch_table_get_n_entries_(table);
1589 }
1590
1591 ir_tarval *ir_switch_table_get_max(const ir_switch_table *table, size_t e)
1592 {
1593         return ir_switch_table_get_entry_const(table, e)->max;
1594 }
1595
1596 ir_tarval *ir_switch_table_get_min(const ir_switch_table *table, size_t e)
1597 {
1598         return ir_switch_table_get_entry_const(table, e)->min;
1599 }
1600
1601 long ir_switch_table_get_pn(const ir_switch_table *table, size_t e)
1602 {
1603         return ir_switch_table_get_entry_const(table, e)->pn;
1604 }
1605
1606 ir_switch_table *ir_switch_table_duplicate(ir_graph *irg,
1607                                            const ir_switch_table *table)
1608 {
1609         size_t n_entries = ir_switch_table_get_n_entries(table);
1610         size_t e;
1611         ir_switch_table *res = ir_new_switch_table(irg, n_entries);
1612         for (e = 0; e < n_entries; ++e) {
1613                 const ir_switch_table_entry *entry
1614                         = ir_switch_table_get_entry_const(table, e);
1615                 ir_switch_table_entry *new_entry = ir_switch_table_get_entry(res, e);
1616                 *new_entry = *entry;
1617         }
1618         return res;
1619 }
1620
1621 unsigned firm_default_hash(const ir_node *node)
1622 {
1623         unsigned h;
1624         int i, irn_arity;
1625
1626         /* hash table value = 9*(9*(9*(9*(9*arity+in[0])+in[1])+ ...)+mode)+code */
1627         h = irn_arity = get_irn_arity(node);
1628
1629         /* consider all in nodes... except the block if not a control flow. */
1630         for (i = is_cfop(node) ? -1 : 0;  i < irn_arity;  ++i) {
1631                 ir_node *pred = get_irn_n(node, i);
1632                 if (is_irn_cse_neutral(pred))
1633                         h *= 9;
1634                 else
1635                         h = 9*h + hash_ptr(pred);
1636         }
1637
1638         /* ...mode,... */
1639         h = 9*h + hash_ptr(get_irn_mode(node));
1640         /* ...and code */
1641         h = 9*h + hash_ptr(get_irn_op(node));
1642
1643         return h;
1644 }
1645
1646 /* include generated code */
1647 #include "gen_irnode.c.inl"