55cbfa29cc830f477573e9368270e7e0a1878667
[libfirm] / ir / ir / irnode.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Representation of an intermediate operation.
23  * @author  Martin Trapp, Christian Schaefer, Goetz Lindenmaier, Michael Beck
24  */
25 #include "config.h"
26
27 #include <string.h>
28
29 #include "pset_new.h"
30 #include "ident.h"
31 #include "irnode_t.h"
32 #include "irgraph_t.h"
33 #include "irmode_t.h"
34 #include "irbackedge_t.h"
35 #include "irdump.h"
36 #include "irop_t.h"
37 #include "irprog_t.h"
38 #include "iredgekinds.h"
39 #include "iredges_t.h"
40 #include "ircons.h"
41 #include "error.h"
42
43 #include "irhooks.h"
44 #include "irtools.h"
45 #include "util.h"
46
47 #include "beinfo.h"
48
49 /* some constants fixing the positions of nodes predecessors
50    in the in array */
51 #define CALL_PARAM_OFFSET     (n_Call_max+1)
52 #define BUILTIN_PARAM_OFFSET  (n_Builtin_max+1)
53 #define SEL_INDEX_OFFSET      (n_Sel_max+1)
54 #define RETURN_RESULT_OFFSET  (n_Return_max+1)
55 #define END_KEEPALIVE_OFFSET  0
56
57 static const char *relation_names [] = {
58         "false",
59         "equal",
60         "less",
61         "less_equal",
62         "greater",
63         "greater_equal",
64         "less_greater",
65         "less_equal_greater",
66         "unordered",
67         "unordered_equal",
68         "unordered_less",
69         "unordered_less_equal",
70         "unordered_greater",
71         "unordered_greater_equal",
72         "not_equal",
73         "true"
74 };
75
76 const char *get_relation_string(ir_relation relation)
77 {
78         assert(relation < (ir_relation)ARRAY_SIZE(relation_names));
79         return relation_names[relation];
80 }
81
82 ir_relation get_negated_relation(ir_relation relation)
83 {
84         return relation ^ ir_relation_true;
85 }
86
87 ir_relation get_inversed_relation(ir_relation relation)
88 {
89         ir_relation code    = relation & ~(ir_relation_less|ir_relation_greater);
90         bool        less    = relation & ir_relation_less;
91         bool        greater = relation & ir_relation_greater;
92         code |= (less ? ir_relation_greater : ir_relation_false)
93               | (greater ? ir_relation_less : ir_relation_false);
94         return code;
95 }
96
97 /**
98  * Indicates, whether additional data can be registered to ir nodes.
99  * If set to 1, this is not possible anymore.
100  */
101 static int forbid_new_data = 0;
102
103 unsigned firm_add_node_size = 0;
104
105
106 unsigned firm_register_additional_node_data(unsigned size)
107 {
108         assert(!forbid_new_data && "Too late to register additional node data");
109
110         if (forbid_new_data)
111                 return 0;
112
113         return firm_add_node_size += size;
114 }
115
116
117 void init_irnode(void)
118 {
119         /* Forbid the addition of new data to an ir node. */
120         forbid_new_data = 1;
121 }
122
123 struct struct_align {
124         char c;
125         struct s {
126                 int i;
127                 float f;
128                 double d;
129         } s;
130 };
131
132 ir_node *new_ir_node(dbg_info *db, ir_graph *irg, ir_node *block, ir_op *op,
133                      ir_mode *mode, int arity, ir_node *const *in)
134 {
135         ir_node *res;
136         unsigned align = offsetof(struct struct_align, s) - 1;
137         unsigned add_node_size = (firm_add_node_size + align) & ~align;
138         size_t node_size = offsetof(ir_node, attr) + op->attr_size + add_node_size;
139         char *p;
140         int i;
141
142         assert(irg);
143         assert(op);
144         assert(mode);
145         p = (char*)obstack_alloc(irg->obst, node_size);
146         memset(p, 0, node_size);
147         res = (ir_node *)(p + add_node_size);
148
149         res->kind     = k_ir_node;
150         res->op       = op;
151         res->mode     = mode;
152         res->visited  = 0;
153         res->node_idx = irg_register_node_idx(irg, res);
154         res->link     = NULL;
155         res->deps     = NULL;
156
157         if (arity < 0) {
158                 res->in = NEW_ARR_F(ir_node *, 1);  /* 1: space for block */
159         } else {
160                 /* not nice but necessary: End and Sync must always have a flexible array */
161                 if (op == op_End || op == op_Sync)
162                         res->in = NEW_ARR_F(ir_node *, (arity+1));
163                 else
164                         res->in = NEW_ARR_D(ir_node *, irg->obst, (arity+1));
165                 memcpy(&res->in[1], in, sizeof(ir_node *) * arity);
166         }
167
168         res->in[0]   = block;
169         set_irn_dbg_info(res, db);
170         res->out     = NULL;
171         res->node_nr = get_irp_new_node_nr();
172
173         for (i = 0; i < EDGE_KIND_LAST; ++i) {
174                 INIT_LIST_HEAD(&res->edge_info[i].outs_head);
175                 /* edges will be build immediately */
176                 res->edge_info[i].edges_built = 1;
177                 res->edge_info[i].out_count = 0;
178         }
179
180         /* don't put this into the for loop, arity is -1 for some nodes! */
181         edges_notify_edge(res, -1, res->in[0], NULL, irg);
182         for (i = 1; i <= arity; ++i)
183                 edges_notify_edge(res, i - 1, res->in[i], NULL, irg);
184
185         hook_new_node(irg, res);
186         if (get_irg_phase_state(irg) == phase_backend) {
187                 be_info_new_node(irg, res);
188         }
189
190         return res;
191 }
192
193 int (is_ir_node)(const void *thing)
194 {
195         return is_ir_node_(thing);
196 }
197
198 int (get_irn_arity)(const ir_node *node)
199 {
200         return get_irn_arity_(node);
201 }
202
203 ir_node **get_irn_in(const ir_node *node)
204 {
205         return node->in;
206 }
207
208 void set_irn_in(ir_node *node, int arity, ir_node **in)
209 {
210         int i;
211         ir_node *** pOld_in;
212         ir_graph *irg = get_irn_irg(node);
213
214         pOld_in = &node->in;
215
216 #ifndef NDEBUG
217         assert(node != NULL && node->kind == k_ir_node);
218         assert(arity >= 0);
219         for (i = 0; i < arity; ++i) {
220                 assert(in[i] != NULL && in[0]->kind == k_ir_node);
221         }
222 #endif
223
224         for (i = 0; i < arity; i++) {
225                 if (i < (int)ARR_LEN(*pOld_in)-1)
226                         edges_notify_edge(node, i, in[i], (*pOld_in)[i+1], irg);
227                 else
228                         edges_notify_edge(node, i, in[i], NULL,            irg);
229         }
230         for (;i < (int)ARR_LEN(*pOld_in)-1; i++) {
231                 edges_notify_edge(node, i, NULL, (*pOld_in)[i+1], irg);
232         }
233
234         if (arity != (int)ARR_LEN(*pOld_in) - 1) {
235                 ir_node * block = (*pOld_in)[0];
236                 *pOld_in = NEW_ARR_D(ir_node *, irg->obst, arity + 1);
237                 (*pOld_in)[0] = block;
238         }
239         fix_backedges(irg->obst, node);
240
241         memcpy((*pOld_in) + 1, in, sizeof(ir_node *) * arity);
242
243         /* update irg flags */
244         clear_irg_properties(irg, IR_GRAPH_PROPERTY_CONSISTENT_OUTS | IR_GRAPH_PROPERTY_CONSISTENT_LOOPINFO);
245 }
246
247 ir_node *(get_irn_n)(const ir_node *node, int n)
248 {
249         return get_irn_n_(node, n);
250 }
251
252 void set_irn_n(ir_node *node, int n, ir_node *in)
253 {
254         ir_graph *irg = get_irn_irg(node);
255         assert(node && node->kind == k_ir_node);
256         assert(-1 <= n);
257         assert(n < get_irn_arity(node));
258         assert(in && in->kind == k_ir_node);
259
260         /* Call the hook */
261         hook_set_irn_n(node, n, in, node->in[n + 1]);
262
263         /* Here, we rely on src and tgt being in the current ir graph */
264         edges_notify_edge(node, n, in, node->in[n + 1], irg);
265
266         node->in[n + 1] = in;
267
268         /* update irg flags */
269         clear_irg_properties(irg, IR_GRAPH_PROPERTY_CONSISTENT_OUTS | IR_GRAPH_PROPERTY_CONSISTENT_LOOPINFO);
270 }
271
272 int add_irn_n(ir_node *node, ir_node *in)
273 {
274         int pos;
275         ir_graph *irg = get_irn_irg(node);
276
277         assert(node->op->opar == oparity_dynamic);
278         pos = ARR_LEN(node->in) - 1;
279         ARR_APP1(ir_node *, node->in, in);
280         edges_notify_edge(node, pos, node->in[pos + 1], NULL, irg);
281
282         /* Call the hook */
283         hook_set_irn_n(node, pos, node->in[pos + 1], NULL);
284
285         return pos;
286 }
287
288 void del_Sync_n(ir_node *n, int i)
289 {
290         int      arity     = get_Sync_n_preds(n);
291         ir_node *last_pred = get_Sync_pred(n, arity - 1);
292         set_Sync_pred(n, i, last_pred);
293         edges_notify_edge(n, arity - 1, NULL, last_pred, get_irn_irg(n));
294         ARR_SHRINKLEN(get_irn_in(n), arity);
295 }
296
297 int (get_irn_deps)(const ir_node *node)
298 {
299         return get_irn_deps_(node);
300 }
301
302 ir_node *(get_irn_dep)(const ir_node *node, int pos)
303 {
304         return get_irn_dep_(node, pos);
305 }
306
307 void (set_irn_dep)(ir_node *node, int pos, ir_node *dep)
308 {
309         set_irn_dep_(node, pos, dep);
310 }
311
312 void add_irn_dep(ir_node *node, ir_node *dep)
313 {
314         assert(dep != NULL);
315         if (node->deps == NULL) {
316                 node->deps = NEW_ARR_F(ir_node *, 0);
317         }
318         ARR_APP1(ir_node*, node->deps, dep);
319         edges_notify_edge_kind(node, ARR_LEN(node->deps)-1, dep, NULL, EDGE_KIND_DEP, get_irn_irg(node));
320 }
321
322 void delete_irn_dep(ir_node *node, ir_node *dep)
323 {
324         size_t i;
325         size_t n_deps;
326         if (node->deps == NULL)
327                 return;
328
329         n_deps = ARR_LEN(node->deps);
330         for (i = 0; i < n_deps; ++i) {
331                 if (node->deps[i] == dep) {
332                         set_irn_dep(node, i, node->deps[n_deps-1]);
333                         edges_notify_edge(node, i, NULL, dep, get_irn_irg(node));
334                         ARR_SHRINKLEN(node->deps, n_deps-1);
335                         break;
336                 }
337         }
338 }
339
340 void add_irn_deps(ir_node *tgt, ir_node *src)
341 {
342         int i, n;
343
344         for (i = 0, n = get_irn_deps(src); i < n; ++i)
345                 add_irn_dep(tgt, get_irn_dep(src, i));
346 }
347
348
349 ir_mode *(get_irn_mode)(const ir_node *node)
350 {
351         return get_irn_mode_(node);
352 }
353
354 void (set_irn_mode)(ir_node *node, ir_mode *mode)
355 {
356         set_irn_mode_(node, mode);
357 }
358
359 ir_op *(get_irn_op)(const ir_node *node)
360 {
361         return get_irn_op_(node);
362 }
363
364 void (set_irn_op)(ir_node *node, ir_op *op)
365 {
366         set_irn_op_(node, op);
367 }
368
369 unsigned (get_irn_opcode)(const ir_node *node)
370 {
371         return get_irn_opcode_(node);
372 }
373
374 const char *get_irn_opname(const ir_node *node)
375 {
376         return get_id_str(node->op->name);
377 }
378
379 ident *get_irn_opident(const ir_node *node)
380 {
381         assert(node);
382         return node->op->name;
383 }
384
385 ir_visited_t (get_irn_visited)(const ir_node *node)
386 {
387         return get_irn_visited_(node);
388 }
389
390 void (set_irn_visited)(ir_node *node, ir_visited_t visited)
391 {
392         set_irn_visited_(node, visited);
393 }
394
395 void (mark_irn_visited)(ir_node *node)
396 {
397         mark_irn_visited_(node);
398 }
399
400 int (irn_visited)(const ir_node *node)
401 {
402         return irn_visited_(node);
403 }
404
405 int (irn_visited_else_mark)(ir_node *node)
406 {
407         return irn_visited_else_mark_(node);
408 }
409
410 void (set_irn_link)(ir_node *node, void *link)
411 {
412         set_irn_link_(node, link);
413 }
414
415 void *(get_irn_link)(const ir_node *node)
416 {
417         return get_irn_link_(node);
418 }
419
420 op_pin_state (get_irn_pinned)(const ir_node *node)
421 {
422         return get_irn_pinned_(node);
423 }
424
425 op_pin_state (is_irn_pinned_in_irg) (const ir_node *node)
426 {
427         return is_irn_pinned_in_irg_(node);
428 }
429
430 void set_irn_pinned(ir_node *node, op_pin_state state)
431 {
432         /* due to optimization an opt may be turned into a Tuple */
433         if (is_Tuple(node))
434                 return;
435
436         assert(node && get_op_pinned(get_irn_op(node)) >= op_pin_state_exc_pinned);
437         assert(state == op_pin_state_pinned || state == op_pin_state_floats);
438
439         node->attr.except.pin_state = state;
440 }
441
442 long get_irn_node_nr(const ir_node *node)
443 {
444         assert(node);
445         return node->node_nr;
446 }
447
448 void *(get_irn_generic_attr)(ir_node *node)
449 {
450         assert(is_ir_node(node));
451         return get_irn_generic_attr_(node);
452 }
453
454 const void *(get_irn_generic_attr_const)(const ir_node *node)
455 {
456         assert(is_ir_node(node));
457         return get_irn_generic_attr_const_(node);
458 }
459
460 unsigned (get_irn_idx)(const ir_node *node)
461 {
462         assert(is_ir_node(node));
463         return get_irn_idx_(node);
464 }
465
466 int get_irn_pred_pos(ir_node *node, ir_node *arg)
467 {
468         int i;
469         for (i = get_irn_arity(node) - 1; i >= 0; i--) {
470                 if (get_irn_n(node, i) == arg)
471                         return i;
472         }
473         return -1;
474 }
475
476 ir_node *(get_nodes_block)(const ir_node *node)
477 {
478         return get_nodes_block_(node);
479 }
480
481 void set_nodes_block(ir_node *node, ir_node *block)
482 {
483         assert(node->op != op_Block);
484         set_irn_n(node, -1, block);
485 }
486
487 ir_type *is_frame_pointer(const ir_node *n)
488 {
489         if (is_Proj(n) && (get_Proj_proj(n) == pn_Start_P_frame_base)) {
490                 ir_node *start = get_Proj_pred(n);
491                 if (is_Start(start)) {
492                         return get_irg_frame_type(get_irn_irg(start));
493                 }
494         }
495         return NULL;
496 }
497
498 ir_node **get_Block_cfgpred_arr(ir_node *node)
499 {
500         assert(is_Block(node));
501         return (ir_node **)&(get_irn_in(node)[1]);
502 }
503
504 int (get_Block_n_cfgpreds)(const ir_node *node)
505 {
506         return get_Block_n_cfgpreds_(node);
507 }
508
509 ir_node *(get_Block_cfgpred)(const ir_node *node, int pos)
510 {
511         return get_Block_cfgpred_(node, pos);
512 }
513
514 void set_Block_cfgpred(ir_node *node, int pos, ir_node *pred)
515 {
516         assert(is_Block(node));
517         set_irn_n(node, pos, pred);
518 }
519
520 int get_Block_cfgpred_pos(const ir_node *block, const ir_node *pred)
521 {
522         int i;
523
524         for (i = get_Block_n_cfgpreds(block) - 1; i >= 0; --i) {
525                 if (get_Block_cfgpred_block(block, i) == pred)
526                         return i;
527         }
528         return -1;
529 }
530
531 ir_node *(get_Block_cfgpred_block)(const ir_node *node, int pos)
532 {
533         return get_Block_cfgpred_block_(node, pos);
534 }
535
536 int get_Block_matured(const ir_node *node)
537 {
538         assert(is_Block(node));
539         return (int)node->attr.block.is_matured;
540 }
541
542 void set_Block_matured(ir_node *node, int matured)
543 {
544         assert(is_Block(node));
545         node->attr.block.is_matured = matured;
546 }
547
548 ir_visited_t (get_Block_block_visited)(const ir_node *node)
549 {
550         return get_Block_block_visited_(node);
551 }
552
553 void (set_Block_block_visited)(ir_node *node, ir_visited_t visit)
554 {
555         set_Block_block_visited_(node, visit);
556 }
557
558 void (mark_Block_block_visited)(ir_node *node)
559 {
560         mark_Block_block_visited_(node);
561 }
562
563 int (Block_block_visited)(const ir_node *node)
564 {
565         return Block_block_visited_(node);
566 }
567
568 ir_graph *(get_Block_irg)(const ir_node *block)
569 {
570         return get_Block_irg_(block);
571 }
572
573 ir_entity *create_Block_entity(ir_node *block)
574 {
575         ir_entity *entity;
576         assert(is_Block(block));
577
578         entity = block->attr.block.entity;
579         if (entity == NULL) {
580                 ir_label_t nr = get_irp_next_label_nr();
581                 entity = new_label_entity(nr);
582                 set_entity_visibility(entity, ir_visibility_local);
583                 set_entity_linkage(entity, IR_LINKAGE_CONSTANT);
584                 set_entity_compiler_generated(entity, 1);
585
586                 block->attr.block.entity = entity;
587         }
588         return entity;
589 }
590
591 ir_node *(get_Block_phis)(const ir_node *block)
592 {
593         return get_Block_phis_(block);
594 }
595
596 void (set_Block_phis)(ir_node *block, ir_node *phi)
597 {
598         set_Block_phis_(block, phi);
599 }
600
601 void (add_Block_phi)(ir_node *block, ir_node *phi)
602 {
603         add_Block_phi_(block, phi);
604 }
605
606 unsigned (get_Block_mark)(const ir_node *block)
607 {
608         return get_Block_mark_(block);
609 }
610
611 void (set_Block_mark)(ir_node *block, unsigned mark)
612 {
613         set_Block_mark_(block, mark);
614 }
615
616 int get_End_n_keepalives(const ir_node *end)
617 {
618         assert(is_End(end));
619         return (get_irn_arity(end) - END_KEEPALIVE_OFFSET);
620 }
621
622 ir_node *get_End_keepalive(const ir_node *end, int pos)
623 {
624         assert(is_End(end));
625         return get_irn_n(end, pos + END_KEEPALIVE_OFFSET);
626 }
627
628 void add_End_keepalive(ir_node *end, ir_node *ka)
629 {
630         assert(is_End(end));
631         add_irn_n(end, ka);
632 }
633
634 void set_End_keepalive(ir_node *end, int pos, ir_node *ka)
635 {
636         assert(is_End(end));
637         set_irn_n(end, pos + END_KEEPALIVE_OFFSET, ka);
638 }
639
640 void set_End_keepalives(ir_node *end, int n, ir_node *in[])
641 {
642         size_t e;
643         int    i;
644         ir_graph *irg = get_irn_irg(end);
645
646         /* notify that edges are deleted */
647         for (e = END_KEEPALIVE_OFFSET; e < ARR_LEN(end->in) - 1; ++e) {
648                 edges_notify_edge(end, e, NULL, end->in[e + 1], irg);
649         }
650         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
651
652         for (i = 0; i < n; ++i) {
653                 end->in[1 + END_KEEPALIVE_OFFSET + i] = in[i];
654                 edges_notify_edge(end, END_KEEPALIVE_OFFSET + i, end->in[1 + END_KEEPALIVE_OFFSET + i], NULL, irg);
655         }
656
657         /* update irg flags */
658         clear_irg_properties(irg, IR_GRAPH_PROPERTY_CONSISTENT_OUTS);
659 }
660
661 void remove_End_keepalive(ir_node *end, ir_node *irn)
662 {
663         int      n = get_End_n_keepalives(end);
664         int      i, idx;
665         ir_graph *irg;
666
667         idx = -1;
668         for (i = n -1; i >= 0; --i) {
669                 ir_node *old_ka = end->in[1 + END_KEEPALIVE_OFFSET + i];
670
671                 /* find irn */
672                 if (old_ka == irn) {
673                         idx = i;
674                         goto found;
675                 }
676         }
677         return;
678 found:
679         irg = get_irn_irg(end);
680
681         /* remove the edge */
682         edges_notify_edge(end, idx, NULL, irn, irg);
683
684         if (idx != n - 1) {
685                 /* exchange with the last one */
686                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
687                 edges_notify_edge(end, n - 1, NULL, old, irg);
688                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
689                 edges_notify_edge(end, idx, old, NULL, irg);
690         }
691         /* now n - 1 keeps, 1 block input */
692         ARR_RESIZE(ir_node *, end->in, (n - 1) + 1 + END_KEEPALIVE_OFFSET);
693
694         /* update irg flags */
695         clear_irg_properties(irg, IR_GRAPH_PROPERTY_CONSISTENT_OUTS);
696 }
697
698 void remove_End_Bads_and_doublets(ir_node *end)
699 {
700         pset_new_t keeps;
701         int        idx, n = get_End_n_keepalives(end);
702         ir_graph   *irg;
703         bool       changed = false;
704
705         if (n <= 0)
706                 return;
707
708         irg = get_irn_irg(end);
709         pset_new_init(&keeps);
710
711         for (idx = n - 1; idx >= 0; --idx) {
712                 ir_node *ka = get_End_keepalive(end, idx);
713
714                 if (is_Bad(ka) || is_NoMem(ka) || pset_new_contains(&keeps, ka)) {
715                         changed = true;
716                         /* remove the edge */
717                         edges_notify_edge(end, idx, NULL, ka, irg);
718
719                         if (idx != n - 1) {
720                                 /* exchange with the last one */
721                                 ir_node *old = end->in[1 + END_KEEPALIVE_OFFSET + n - 1];
722                                 edges_notify_edge(end, n - 1, NULL, old, irg);
723                                 end->in[1 + END_KEEPALIVE_OFFSET + idx] = old;
724                                 edges_notify_edge(end, idx, old, NULL, irg);
725                         }
726                         --n;
727                 } else {
728                         pset_new_insert(&keeps, ka);
729                 }
730         }
731         /* n keeps, 1 block input */
732         ARR_RESIZE(ir_node *, end->in, n + 1 + END_KEEPALIVE_OFFSET);
733
734         pset_new_destroy(&keeps);
735
736         if (changed) {
737                 clear_irg_properties(irg, IR_GRAPH_PROPERTY_CONSISTENT_OUTS);
738         }
739 }
740
741 void free_End(ir_node *end)
742 {
743         assert(is_End(end));
744         end->kind = k_BAD;
745         DEL_ARR_F(end->in);
746         end->in = NULL;   /* @@@ make sure we get an error if we use the
747                              in array afterwards ... */
748 }
749
750 size_t get_Return_n_ress(const ir_node *node)
751 {
752         assert(is_Return(node));
753         return (size_t)(get_irn_arity(node) - RETURN_RESULT_OFFSET);
754 }
755
756 ir_node **get_Return_res_arr(ir_node *node)
757 {
758         assert(is_Return(node));
759         if (get_Return_n_ress(node) > 0)
760                 return (ir_node **)&(get_irn_in(node)[1 + RETURN_RESULT_OFFSET]);
761         else
762                 return NULL;
763 }
764
765 ir_node *get_Return_res(const ir_node *node, int pos)
766 {
767         assert(is_Return(node));
768         assert(pos >= 0);
769         assert(get_Return_n_ress(node) > (size_t)pos);
770         return get_irn_n(node, pos + RETURN_RESULT_OFFSET);
771 }
772
773 void set_Return_res(ir_node *node, int pos, ir_node *res)
774 {
775         assert(is_Return(node));
776         set_irn_n(node, pos + RETURN_RESULT_OFFSET, res);
777 }
778
779 int (is_Const_null)(const ir_node *node)
780 {
781         return is_Const_null_(node);
782 }
783
784 int (is_Const_one)(const ir_node *node)
785 {
786         return is_Const_one_(node);
787 }
788
789 int (is_Const_all_one)(const ir_node *node)
790 {
791         return is_Const_all_one_(node);
792 }
793
794
795
796 symconst_kind get_SymConst_kind(const ir_node *node)
797 {
798         assert(is_SymConst(node));
799         return node->attr.symc.kind;
800 }
801
802 void set_SymConst_kind(ir_node *node, symconst_kind kind)
803 {
804         assert(is_SymConst(node));
805         node->attr.symc.kind = kind;
806 }
807
808 ir_type *get_SymConst_type(const ir_node *node)
809 {
810         /* the cast here is annoying, but we have to compensate for
811            the skip_tip() */
812         ir_node *irn = (ir_node *)node;
813         assert(is_SymConst(node) &&
814                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
815         return irn->attr.symc.sym.type_p;
816 }
817
818 void set_SymConst_type(ir_node *node, ir_type *tp)
819 {
820         assert(is_SymConst(node) &&
821                (SYMCONST_HAS_TYPE(get_SymConst_kind(node))));
822         node->attr.symc.sym.type_p = tp;
823 }
824
825 ir_entity *get_SymConst_entity(const ir_node *node)
826 {
827         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
828         return node->attr.symc.sym.entity_p;
829 }
830
831 void set_SymConst_entity(ir_node *node, ir_entity *ent)
832 {
833         assert(is_SymConst(node) && SYMCONST_HAS_ENT(get_SymConst_kind(node)));
834         node->attr.symc.sym.entity_p  = ent;
835 }
836
837 ir_enum_const *get_SymConst_enum(const ir_node *node)
838 {
839         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
840         return node->attr.symc.sym.enum_p;
841 }
842
843 void set_SymConst_enum(ir_node *node, ir_enum_const *ec)
844 {
845         assert(is_SymConst(node) && SYMCONST_HAS_ENUM(get_SymConst_kind(node)));
846         node->attr.symc.sym.enum_p  = ec;
847 }
848
849 union symconst_symbol
850 get_SymConst_symbol(const ir_node *node)
851 {
852         assert(is_SymConst(node));
853         return node->attr.symc.sym;
854 }
855
856 void set_SymConst_symbol(ir_node *node, union symconst_symbol sym)
857 {
858         assert(is_SymConst(node));
859         node->attr.symc.sym = sym;
860 }
861
862 int get_Sel_n_indexs(const ir_node *node)
863 {
864         assert(is_Sel(node));
865         return (get_irn_arity(node) - SEL_INDEX_OFFSET);
866 }
867
868 ir_node **get_Sel_index_arr(ir_node *node)
869 {
870         assert(is_Sel(node));
871         if (get_Sel_n_indexs(node) > 0)
872                 return (ir_node **)& get_irn_in(node)[SEL_INDEX_OFFSET + 1];
873         else
874                 return NULL;
875 }
876
877 ir_node *get_Sel_index(const ir_node *node, int pos)
878 {
879         assert(is_Sel(node));
880         return get_irn_n(node, pos + SEL_INDEX_OFFSET);
881 }
882
883 void set_Sel_index(ir_node *node, int pos, ir_node *index)
884 {
885         assert(is_Sel(node));
886         set_irn_n(node, pos + SEL_INDEX_OFFSET, index);
887 }
888
889 ir_node **get_Call_param_arr(ir_node *node)
890 {
891         assert(is_Call(node));
892         return &get_irn_in(node)[CALL_PARAM_OFFSET + 1];
893 }
894
895 size_t get_Call_n_params(const ir_node *node)
896 {
897         assert(is_Call(node));
898         return (size_t) (get_irn_arity(node) - CALL_PARAM_OFFSET);
899 }
900
901 ir_node *get_Call_param(const ir_node *node, int pos)
902 {
903         assert(is_Call(node));
904         return get_irn_n(node, pos + CALL_PARAM_OFFSET);
905 }
906
907 void set_Call_param(ir_node *node, int pos, ir_node *param)
908 {
909         assert(is_Call(node));
910         set_irn_n(node, pos + CALL_PARAM_OFFSET, param);
911 }
912
913 ir_node **get_Builtin_param_arr(ir_node *node)
914 {
915         assert(is_Builtin(node));
916         return &get_irn_in(node)[BUILTIN_PARAM_OFFSET + 1];
917 }
918
919 int get_Builtin_n_params(const ir_node *node)
920 {
921         assert(is_Builtin(node));
922         return (get_irn_arity(node) - BUILTIN_PARAM_OFFSET);
923 }
924
925 ir_node *get_Builtin_param(const ir_node *node, int pos)
926 {
927         assert(is_Builtin(node));
928         return get_irn_n(node, pos + BUILTIN_PARAM_OFFSET);
929 }
930
931 void set_Builtin_param(ir_node *node, int pos, ir_node *param)
932 {
933         assert(is_Builtin(node));
934         set_irn_n(node, pos + BUILTIN_PARAM_OFFSET, param);
935 }
936
937 const char *get_builtin_kind_name(ir_builtin_kind kind)
938 {
939 #define X(a)    case a: return #a
940         switch (kind) {
941                 X(ir_bk_trap);
942                 X(ir_bk_debugbreak);
943                 X(ir_bk_return_address);
944                 X(ir_bk_frame_address);
945                 X(ir_bk_prefetch);
946                 X(ir_bk_ffs);
947                 X(ir_bk_clz);
948                 X(ir_bk_ctz);
949                 X(ir_bk_popcount);
950                 X(ir_bk_parity);
951                 X(ir_bk_bswap);
952                 X(ir_bk_inport);
953                 X(ir_bk_outport);
954                 X(ir_bk_inner_trampoline);
955         }
956         return "<unknown>";
957 #undef X
958 }
959
960
961 int Call_has_callees(const ir_node *node)
962 {
963         assert(is_Call(node));
964         return ((get_irg_callee_info_state(get_irn_irg(node)) != irg_callee_info_none) &&
965                 (node->attr.call.callee_arr != NULL));
966 }
967
968 size_t get_Call_n_callees(const ir_node *node)
969 {
970   assert(is_Call(node) && node->attr.call.callee_arr);
971   return ARR_LEN(node->attr.call.callee_arr);
972 }
973
974 ir_entity *get_Call_callee(const ir_node *node, size_t pos)
975 {
976         assert(pos < get_Call_n_callees(node));
977         return node->attr.call.callee_arr[pos];
978 }
979
980 void set_Call_callee_arr(ir_node *node, size_t n, ir_entity ** arr)
981 {
982         ir_graph *irg = get_irn_irg(node);
983
984         assert(is_Call(node));
985         if (node->attr.call.callee_arr == NULL || get_Call_n_callees(node) != n) {
986                 node->attr.call.callee_arr = NEW_ARR_D(ir_entity *, irg->obst, n);
987         }
988         memcpy(node->attr.call.callee_arr, arr, n * sizeof(ir_entity *));
989 }
990
991 void remove_Call_callee_arr(ir_node *node)
992 {
993         assert(is_Call(node));
994         node->attr.call.callee_arr = NULL;
995 }
996
997 int is_Cast_upcast(ir_node *node)
998 {
999         ir_type *totype   = get_Cast_type(node);
1000         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1001
1002         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1003         assert(fromtype);
1004
1005         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1006                 totype   = get_pointer_points_to_type(totype);
1007                 fromtype = get_pointer_points_to_type(fromtype);
1008         }
1009
1010         assert(fromtype);
1011
1012         if (!is_Class_type(totype)) return 0;
1013         return is_SubClass_of(fromtype, totype);
1014 }
1015
1016 int is_Cast_downcast(ir_node *node)
1017 {
1018         ir_type *totype   = get_Cast_type(node);
1019         ir_type *fromtype = get_irn_typeinfo_type(get_Cast_op(node));
1020
1021         assert(get_irg_typeinfo_state(get_irn_irg(node)) == ir_typeinfo_consistent);
1022         assert(fromtype);
1023
1024         while (is_Pointer_type(totype) && is_Pointer_type(fromtype)) {
1025                 totype   = get_pointer_points_to_type(totype);
1026                 fromtype = get_pointer_points_to_type(fromtype);
1027         }
1028
1029         assert(fromtype);
1030
1031         if (!is_Class_type(totype)) return 0;
1032         return is_SubClass_of(totype, fromtype);
1033 }
1034
1035 int (is_unop)(const ir_node *node)
1036 {
1037         return is_unop_(node);
1038 }
1039
1040 ir_node *get_unop_op(const ir_node *node)
1041 {
1042         if (node->op->opar == oparity_unary)
1043                 return get_irn_n(node, node->op->op_index);
1044
1045         assert(node->op->opar == oparity_unary);
1046         return NULL;
1047 }
1048
1049 void set_unop_op(ir_node *node, ir_node *op)
1050 {
1051         if (node->op->opar == oparity_unary)
1052                 set_irn_n(node, node->op->op_index, op);
1053
1054         assert(node->op->opar == oparity_unary);
1055 }
1056
1057 int (is_binop)(const ir_node *node)
1058 {
1059         return is_binop_(node);
1060 }
1061
1062 ir_node *get_binop_left(const ir_node *node)
1063 {
1064         assert(node->op->opar == oparity_binary);
1065         return get_irn_n(node, node->op->op_index);
1066 }
1067
1068 void set_binop_left(ir_node *node, ir_node *left)
1069 {
1070         assert(node->op->opar == oparity_binary);
1071         set_irn_n(node, node->op->op_index, left);
1072 }
1073
1074 ir_node *get_binop_right(const ir_node *node)
1075 {
1076         assert(node->op->opar == oparity_binary);
1077         return get_irn_n(node, node->op->op_index + 1);
1078 }
1079
1080 void set_binop_right(ir_node *node, ir_node *right)
1081 {
1082         assert(node->op->opar == oparity_binary);
1083         set_irn_n(node, node->op->op_index + 1, right);
1084 }
1085
1086 ir_node **get_Phi_preds_arr(ir_node *node)
1087 {
1088   assert(is_Phi(node));
1089   return (ir_node **)&(get_irn_in(node)[1]);
1090 }
1091
1092 int get_Phi_n_preds(const ir_node *node)
1093 {
1094         assert(is_Phi(node));
1095         return get_irn_arity(node);
1096 }
1097
1098 ir_node *get_Phi_pred(const ir_node *node, int pos)
1099 {
1100         assert(is_Phi(node));
1101         return get_irn_n(node, pos);
1102 }
1103
1104 void set_Phi_pred(ir_node *node, int pos, ir_node *pred)
1105 {
1106         assert(is_Phi(node));
1107         set_irn_n(node, pos, pred);
1108 }
1109
1110 ir_node *(get_Phi_next)(const ir_node *phi)
1111 {
1112         return get_Phi_next_(phi);
1113 }
1114
1115 void (set_Phi_next)(ir_node *phi, ir_node *next)
1116 {
1117         set_Phi_next_(phi, next);
1118 }
1119
1120 int is_memop(const ir_node *node)
1121 {
1122         return is_op_uses_memory(get_irn_op(node));
1123 }
1124
1125 ir_node *get_memop_mem(const ir_node *node)
1126 {
1127         const ir_op *op = get_irn_op(node);
1128         assert(is_memop(node));
1129         return get_irn_n(node, op->memory_index);
1130 }
1131
1132 void set_memop_mem(ir_node *node, ir_node *mem)
1133 {
1134         const ir_op *op = get_irn_op(node);
1135         assert(is_memop(node));
1136         set_irn_n(node, op->memory_index, mem);
1137 }
1138
1139 ir_node **get_Sync_preds_arr(ir_node *node)
1140 {
1141         assert(is_Sync(node));
1142         return (ir_node **)&(get_irn_in(node)[1]);
1143 }
1144
1145 int get_Sync_n_preds(const ir_node *node)
1146 {
1147         assert(is_Sync(node));
1148         return (get_irn_arity(node));
1149 }
1150
1151 ir_node *get_Sync_pred(const ir_node *node, int pos)
1152 {
1153         assert(is_Sync(node));
1154         return get_irn_n(node, pos);
1155 }
1156
1157 void set_Sync_pred(ir_node *node, int pos, ir_node *pred)
1158 {
1159         assert(is_Sync(node));
1160         set_irn_n(node, pos, pred);
1161 }
1162
1163 void add_Sync_pred(ir_node *node, ir_node *pred)
1164 {
1165         assert(is_Sync(node));
1166         add_irn_n(node, pred);
1167 }
1168
1169 int (is_arg_Proj)(const ir_node *node)
1170 {
1171         return is_arg_Proj_(node);
1172 }
1173
1174 int is_x_except_Proj(const ir_node *node)
1175 {
1176         ir_node *pred;
1177         if (!is_Proj(node))
1178                 return false;
1179         pred = get_Proj_pred(node);
1180         if (!is_fragile_op(pred))
1181                 return false;
1182         return get_Proj_proj(node) == pred->op->pn_x_except;
1183 }
1184
1185 int is_x_regular_Proj(const ir_node *node)
1186 {
1187         ir_node *pred;
1188         if (!is_Proj(node))
1189                 return false;
1190         pred = get_Proj_pred(node);
1191         if (!is_fragile_op(pred))
1192                 return false;
1193         return get_Proj_proj(node) == pred->op->pn_x_regular;
1194 }
1195
1196 void ir_set_throws_exception(ir_node *node, int throws_exception)
1197 {
1198         except_attr *attr = &node->attr.except;
1199         assert(is_fragile_op(node));
1200         attr->throws_exception = throws_exception;
1201 }
1202
1203 int ir_throws_exception(const ir_node *node)
1204 {
1205         const except_attr *attr = &node->attr.except;
1206         assert(is_fragile_op(node));
1207         return attr->throws_exception;
1208 }
1209
1210 ir_node **get_Tuple_preds_arr(ir_node *node)
1211 {
1212         assert(is_Tuple(node));
1213         return (ir_node **)&(get_irn_in(node)[1]);
1214 }
1215
1216 int get_Tuple_n_preds(const ir_node *node)
1217 {
1218         assert(is_Tuple(node));
1219         return get_irn_arity(node);
1220 }
1221
1222 ir_node *get_Tuple_pred(const ir_node *node, int pos)
1223 {
1224   assert(is_Tuple(node));
1225   return get_irn_n(node, pos);
1226 }
1227
1228 void set_Tuple_pred(ir_node *node, int pos, ir_node *pred)
1229 {
1230         assert(is_Tuple(node));
1231         set_irn_n(node, pos, pred);
1232 }
1233
1234 size_t get_ASM_n_input_constraints(const ir_node *node)
1235 {
1236         assert(is_ASM(node));
1237         return ARR_LEN(node->attr.assem.input_constraints);
1238 }
1239
1240 size_t get_ASM_n_output_constraints(const ir_node *node)
1241 {
1242         assert(is_ASM(node));
1243         return ARR_LEN(node->attr.assem.output_constraints);
1244 }
1245
1246 size_t get_ASM_n_clobbers(const ir_node *node)
1247 {
1248         assert(is_ASM(node));
1249         return ARR_LEN(node->attr.assem.clobbers);
1250 }
1251
1252 ir_graph *(get_irn_irg)(const ir_node *node)
1253 {
1254         return get_irn_irg_(node);
1255 }
1256
1257 ir_node *skip_Proj(ir_node *node)
1258 {
1259         /* don't assert node !!! */
1260         if (node == NULL)
1261                 return NULL;
1262
1263         if (is_Proj(node))
1264                 node = get_Proj_pred(node);
1265
1266         return node;
1267 }
1268
1269 const ir_node *
1270 skip_Proj_const(const ir_node *node)
1271 {
1272         /* don't assert node !!! */
1273         if (node == NULL)
1274                 return NULL;
1275
1276         if (is_Proj(node))
1277                 node = get_Proj_pred(node);
1278
1279         return node;
1280 }
1281
1282 ir_node *skip_Tuple(ir_node *node)
1283 {
1284   ir_node *pred;
1285
1286 restart:
1287         if (is_Proj(node)) {
1288             pred = get_Proj_pred(node);
1289
1290                 if (is_Proj(pred)) { /* nested Tuple ? */
1291                     pred = skip_Tuple(pred);
1292
1293                         if (is_Tuple(pred)) {
1294                                 node = get_Tuple_pred(pred, get_Proj_proj(node));
1295                                 goto restart;
1296                         }
1297                 } else if (is_Tuple(pred)) {
1298                         node = get_Tuple_pred(pred, get_Proj_proj(node));
1299                         goto restart;
1300                 }
1301         }
1302         return node;
1303 }
1304
1305 ir_node *skip_Cast(ir_node *node)
1306 {
1307         if (is_Cast(node))
1308                 return get_Cast_op(node);
1309         return node;
1310 }
1311
1312 const ir_node *skip_Cast_const(const ir_node *node)
1313 {
1314         if (is_Cast(node))
1315                 return get_Cast_op(node);
1316         return node;
1317 }
1318
1319 ir_node *skip_Pin(ir_node *node)
1320 {
1321         if (is_Pin(node))
1322                 return get_Pin_op(node);
1323         return node;
1324 }
1325
1326 ir_node *skip_Confirm(ir_node *node)
1327 {
1328         if (is_Confirm(node))
1329                 return get_Confirm_value(node);
1330         return node;
1331 }
1332
1333 ir_node *skip_HighLevel_ops(ir_node *node)
1334 {
1335         while (is_op_highlevel(get_irn_op(node))) {
1336                 node = get_irn_n(node, 0);
1337         }
1338         return node;
1339 }
1340
1341
1342 ir_node *skip_Id(ir_node *node)
1343 {
1344         /* This should compact Id-cycles to self-cycles. It has the same (or less?) complexity
1345          * than any other approach, as Id chains are resolved and all point to the real node, or
1346          * all id's are self loops.
1347          *
1348          * Note: This function takes 10% of mostly ANY the compiler run, so it's
1349          * a little bit "hand optimized".
1350          */
1351         ir_node *pred;
1352         /* don't assert node !!! */
1353
1354         if (!node || (node->op != op_Id)) return node;
1355
1356         /* Don't use get_Id_pred():  We get into an endless loop for
1357            self-referencing Ids. */
1358         pred = node->in[0+1];
1359
1360         if (pred->op != op_Id) return pred;
1361
1362         if (node != pred) {  /* not a self referencing Id. Resolve Id chain. */
1363                 ir_node *rem_pred, *res;
1364
1365                 if (pred->op != op_Id) return pred; /* shortcut */
1366                 rem_pred = pred;
1367
1368                 assert(get_irn_arity (node) > 0);
1369
1370                 node->in[0+1] = node;   /* turn us into a self referencing Id:  shorten Id cycles. */
1371                 res = skip_Id(rem_pred);
1372                 if (is_Id(res)) /* self-loop */ return node;
1373
1374                 node->in[0+1] = res;    /* Turn Id chain into Ids all referencing the chain end. */
1375                 return res;
1376         } else {
1377                 return node;
1378         }
1379 }
1380
1381 int (is_strictConv)(const ir_node *node)
1382 {
1383         return is_strictConv_(node);
1384 }
1385
1386 int (is_SymConst_addr_ent)(const ir_node *node)
1387 {
1388         return is_SymConst_addr_ent_(node);
1389 }
1390
1391 int is_cfop(const ir_node *node)
1392 {
1393         if (is_fragile_op(node) && ir_throws_exception(node))
1394                 return true;
1395
1396         return is_op_cfopcode(get_irn_op(node));
1397 }
1398
1399 int is_unknown_jump(const ir_node *node)
1400 {
1401         return is_op_unknown_jump(get_irn_op(node));
1402 }
1403
1404 int is_fragile_op(const ir_node *node)
1405 {
1406         return is_op_fragile(get_irn_op(node));
1407 }
1408
1409 int (is_irn_forking)(const ir_node *node)
1410 {
1411         return is_irn_forking_(node);
1412 }
1413
1414 void (copy_node_attr)(ir_graph *irg, const ir_node *old_node, ir_node *new_node)
1415 {
1416         copy_node_attr_(irg, old_node, new_node);
1417 }
1418
1419 ir_type *(get_irn_type_attr)(ir_node *node)
1420 {
1421         return get_irn_type_attr_(node);
1422 }
1423
1424 ir_entity *(get_irn_entity_attr)(ir_node *node)
1425 {
1426         return get_irn_entity_attr_(node);
1427 }
1428
1429 int (is_irn_constlike)(const ir_node *node)
1430 {
1431         return is_irn_constlike_(node);
1432 }
1433
1434 int (is_irn_keep)(const ir_node *node)
1435 {
1436         return is_irn_keep_(node);
1437 }
1438
1439 int (is_irn_start_block_placed)(const ir_node *node)
1440 {
1441         return is_irn_start_block_placed_(node);
1442 }
1443
1444 int (is_irn_cse_neutral)(const ir_node *node)
1445 {
1446         return is_irn_cse_neutral_(node);
1447 }
1448
1449 const char *get_cond_jmp_predicate_name(cond_jmp_predicate pred)
1450 {
1451 #define X(a)    case a: return #a
1452         switch (pred) {
1453                 X(COND_JMP_PRED_NONE);
1454                 X(COND_JMP_PRED_TRUE);
1455                 X(COND_JMP_PRED_FALSE);
1456         }
1457         return "<unknown>";
1458 #undef X
1459 }
1460
1461 /** Return the attribute type of a SymConst node if exists */
1462 static ir_type *get_SymConst_attr_type(const ir_node *self)
1463 {
1464         symconst_kind kind = get_SymConst_kind(self);
1465         if (SYMCONST_HAS_TYPE(kind))
1466                 return get_SymConst_type(self);
1467         return NULL;
1468 }
1469
1470 /** Return the attribute entity of a SymConst node if exists */
1471 static ir_entity *get_SymConst_attr_entity(const ir_node *self)
1472 {
1473         symconst_kind kind = get_SymConst_kind(self);
1474         if (SYMCONST_HAS_ENT(kind))
1475                 return get_SymConst_entity(self);
1476         return NULL;
1477 }
1478
1479 static void register_get_type_func(ir_op *op, get_type_attr_func func)
1480 {
1481         op->ops.get_type_attr = func;
1482 }
1483
1484 static void register_get_entity_func(ir_op *op, get_entity_attr_func func)
1485 {
1486         op->ops.get_entity_attr = func;
1487 }
1488
1489 void ir_register_getter_ops(void)
1490 {
1491         register_get_type_func(op_Alloc,    get_Alloc_type);
1492         register_get_type_func(op_Builtin,  get_Builtin_type);
1493         register_get_type_func(op_Call,     get_Call_type);
1494         register_get_type_func(op_Cast,     get_Cast_type);
1495         register_get_type_func(op_CopyB,    get_CopyB_type);
1496         register_get_type_func(op_Free,     get_Free_type);
1497         register_get_type_func(op_InstOf,   get_InstOf_type);
1498         register_get_type_func(op_SymConst, get_SymConst_attr_type);
1499
1500         register_get_entity_func(op_SymConst, get_SymConst_attr_entity);
1501         register_get_entity_func(op_Sel,      get_Sel_entity);
1502         register_get_entity_func(op_Block,    get_Block_entity);
1503 }
1504
1505 void (set_irn_dbg_info)(ir_node *n, dbg_info *db)
1506 {
1507         set_irn_dbg_info_(n, db);
1508 }
1509
1510 dbg_info *(get_irn_dbg_info)(const ir_node *n)
1511 {
1512         return get_irn_dbg_info_(n);
1513 }
1514
1515 ir_switch_table *ir_new_switch_table(ir_graph *irg, size_t n_entries)
1516 {
1517         struct obstack *obst = get_irg_obstack(irg);
1518         ir_switch_table *res = OALLOCFZ(obst, ir_switch_table, entries, n_entries);
1519         res->n_entries = n_entries;
1520         return res;
1521 }
1522
1523 void ir_switch_table_set(ir_switch_table *table, size_t n,
1524                          ir_tarval *min, ir_tarval *max, long pn)
1525 {
1526         ir_switch_table_entry *entry = ir_switch_table_get_entry(table, n);
1527         entry->min = min;
1528         entry->max = max;
1529         entry->pn  = pn;
1530 }
1531
1532 size_t (ir_switch_table_get_n_entries)(const ir_switch_table *table)
1533 {
1534         return ir_switch_table_get_n_entries_(table);
1535 }
1536
1537 ir_tarval *ir_switch_table_get_max(const ir_switch_table *table, size_t e)
1538 {
1539         return ir_switch_table_get_entry_const(table, e)->max;
1540 }
1541
1542 ir_tarval *ir_switch_table_get_min(const ir_switch_table *table, size_t e)
1543 {
1544         return ir_switch_table_get_entry_const(table, e)->min;
1545 }
1546
1547 long ir_switch_table_get_pn(const ir_switch_table *table, size_t e)
1548 {
1549         return ir_switch_table_get_entry_const(table, e)->pn;
1550 }
1551
1552 ir_switch_table *ir_switch_table_duplicate(ir_graph *irg,
1553                                            const ir_switch_table *table)
1554 {
1555         size_t n_entries = ir_switch_table_get_n_entries(table);
1556         size_t e;
1557         ir_switch_table *res = ir_new_switch_table(irg, n_entries);
1558         for (e = 0; e < n_entries; ++e) {
1559                 const ir_switch_table_entry *entry
1560                         = ir_switch_table_get_entry_const(table, e);
1561                 ir_switch_table_entry *new_entry = ir_switch_table_get_entry(res, e);
1562                 *new_entry = *entry;
1563         }
1564         return res;
1565 }
1566
1567 /* include generated code */
1568 #include "gen_irnode.c.inl"