make add_missing_keeps more robust in case of SwitchJumps
[libfirm] / ir / be / beabihelper.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       Helper functions for handling ABI constraints in the code
23  *              selection phase.
24  * @author      Matthias Braun
25  * @version     $Id$
26  */
27 #include "config.h"
28
29 #include "beabihelper.h"
30 #include "bearch.h"
31 #include "benode.h"
32 #include "besched.h"
33 #include "ircons.h"
34 #include "iredges.h"
35 #include "irgwalk.h"
36 #include "irphase_t.h"
37 #include "height.h"
38
39 typedef struct reg_flag_t {
40         const arch_register_t *reg;   /**< register at an input position.
41                                            may be NULL in case of memory input */
42         arch_irn_flags_t       flags;
43 } reg_flag_t;
44
45 /**
46  * A register state mapping keeps track of the symbol values (=firm nodes)
47  * to registers. This is usefull when constructing straight line code
48  * which like the function prolog or epilog in some architectures.
49  */
50 typedef struct register_state_mapping_t {
51         ir_node   **value_map;     /**< mapping of state indices to values */
52         int       **reg_index_map; /**< mapping of regclass,regnum to an index
53                                         into the value_map */
54         reg_flag_t *regs;          /**< registers (and memory values) that form a
55                                         state */
56         ir_node    *last_barrier;
57 } register_state_mapping_t;
58
59 struct beabi_helper_env_t {
60         ir_graph                 *irg;
61         register_state_mapping_t  prolog;
62         register_state_mapping_t  epilog;
63         ir_phase                 *stack_order;
64 };
65
66 static void prepare_rsm(register_state_mapping_t *rsm,
67                         const arch_env_t *arch_env)
68 {
69         unsigned   n_reg_classes = arch_env_get_n_reg_class(arch_env);
70         unsigned   c;
71         reg_flag_t memory = { NULL, 0 };
72
73         rsm->regs = NEW_ARR_F(reg_flag_t, 0);
74         /* memory input at 0 */
75         ARR_APP1(reg_flag_t, rsm->regs, memory);
76
77         rsm->value_map     = NULL;
78         rsm->reg_index_map = XMALLOCN(int*, n_reg_classes);
79         for (c = 0; c < n_reg_classes; ++c) {
80                 const arch_register_class_t *cls = arch_env_get_reg_class(arch_env, c);
81                 unsigned                     n_regs = arch_register_class_n_regs(cls);
82                 unsigned                     r;
83
84                 rsm->reg_index_map[c] = XMALLOCN(int, n_regs);
85                 for (r = 0; r < n_regs; ++r) {
86                         rsm->reg_index_map[c][r] = -1;
87                 }
88         }
89 }
90
91 static void free_rsm(register_state_mapping_t *rsm, const arch_env_t *arch_env)
92 {
93         unsigned n_reg_classes = arch_env_get_n_reg_class(arch_env);
94         unsigned c;
95
96         for (c = 0; c < n_reg_classes; ++c) {
97                 free(rsm->reg_index_map[c]);
98         }
99
100         free(rsm->reg_index_map);
101         if (rsm->value_map != NULL)
102                 DEL_ARR_F(rsm->value_map);
103         DEL_ARR_F(rsm->regs);
104
105         rsm->regs          = NULL;
106         rsm->reg_index_map = NULL;
107         rsm->value_map     = NULL;
108 }
109
110 static void rsm_clear_regs(register_state_mapping_t *rsm,
111                            const arch_env_t *arch_env)
112 {
113         unsigned   n_reg_classes = arch_env_get_n_reg_class(arch_env);
114         unsigned   c;
115         reg_flag_t memory = { NULL, 0 };
116
117         for (c = 0; c < n_reg_classes; ++c) {
118                 const arch_register_class_t *cls = arch_env_get_reg_class(arch_env, c);
119                 unsigned                     n_regs = arch_register_class_n_regs(cls);
120                 unsigned                     r;
121
122                 for (r = 0; r < n_regs; ++r) {
123                         rsm->reg_index_map[c][r] = -1;
124                 }
125         }
126         ARR_RESIZE(reg_flag_t, rsm->regs, 0);
127         ARR_APP1(reg_flag_t, rsm->regs, memory);
128
129         if (rsm->value_map != NULL) {
130                 DEL_ARR_F(rsm->value_map);
131                 rsm->value_map = NULL;
132         }
133 }
134
135 static int rsm_add_reg(register_state_mapping_t *rsm,
136                        const arch_register_t *reg, arch_irn_flags_t flags)
137 {
138         int        input_idx = ARR_LEN(rsm->regs);
139         int        cls_idx   = reg->reg_class->index;
140         int        reg_idx   = reg->index;
141         reg_flag_t regflag   = { reg, flags };
142
143         /* we must not have used get_value yet */
144         assert(rsm->reg_index_map[cls_idx][reg_idx] == -1);
145         rsm->reg_index_map[cls_idx][reg_idx] = input_idx;
146         ARR_APP1(reg_flag_t, rsm->regs, regflag);
147
148         if (rsm->value_map != NULL) {
149                 ARR_APP1(ir_node*, rsm->value_map, NULL);
150                 assert(ARR_LEN(rsm->value_map) == ARR_LEN(rsm->regs));
151         }
152         return input_idx;
153 }
154
155
156 static ir_node *rsm_get_value(register_state_mapping_t *rsm, int index)
157 {
158         assert(0 <= index && index < ARR_LEN(rsm->value_map));
159         return rsm->value_map[index];
160 }
161
162 static ir_node *rsm_get_reg_value(register_state_mapping_t *rsm,
163                                   const arch_register_t *reg)
164 {
165         int cls_idx   = reg->reg_class->index;
166         int reg_idx   = reg->index;
167         int input_idx = rsm->reg_index_map[cls_idx][reg_idx];
168
169         return rsm_get_value(rsm, input_idx);
170 }
171
172 static void rsm_set_value(register_state_mapping_t *rsm, int index,
173                           ir_node *value)
174 {
175         assert(0 <= index && index < ARR_LEN(rsm->value_map));
176         rsm->value_map[index] = value;
177 }
178
179 static void rsm_set_reg_value(register_state_mapping_t *rsm,
180                               const arch_register_t *reg, ir_node *value)
181 {
182         int cls_idx   = reg->reg_class->index;
183         int reg_idx   = reg->index;
184         int input_idx = rsm->reg_index_map[cls_idx][reg_idx];
185         rsm_set_value(rsm, input_idx, value);
186 }
187
188 static ir_node *rsm_create_barrier(register_state_mapping_t *rsm,
189                                    ir_node *block)
190 {
191         int       n_barrier_outs = ARR_LEN(rsm->regs);
192         ir_node **in             = rsm->value_map;
193         ir_node  *barrier;
194         int       o;
195
196         assert(ARR_LEN(rsm->value_map) == n_barrier_outs);
197
198         barrier = be_new_Barrier(block, n_barrier_outs, in);
199
200         for (o = 0; o < n_barrier_outs; ++o) {
201                 const reg_flag_t      *regflag = &rsm->regs[o];
202                 const arch_register_t *reg     = regflag->reg;
203                 ir_node               *proj;
204                 if (reg == NULL) {
205                         arch_set_out_register_req(barrier, o, arch_no_register_req);
206                         proj = new_r_Proj(barrier, mode_M, o);
207                 } else {
208                         be_set_constr_single_reg_in(barrier, o, reg, 0);
209                         be_set_constr_single_reg_out(barrier, o, reg, regflag->flags);
210                         proj = new_r_Proj(barrier, reg->reg_class->mode, o);
211                 }
212                 rsm->value_map[o] = proj;
213         }
214
215         rsm->last_barrier = barrier;
216
217         return barrier;
218 }
219
220
221
222
223
224 beabi_helper_env_t *be_abihelper_prepare(ir_graph *irg)
225 {
226         const arch_env_t   *arch_env = be_get_irg_arch_env(irg);
227         beabi_helper_env_t *env      = XMALLOCZ(beabi_helper_env_t);
228
229         env->irg = irg;
230         prepare_rsm(&env->prolog, arch_env);
231         prepare_rsm(&env->epilog, arch_env);
232
233         return env;
234 }
235
236 void be_abihelper_finish(beabi_helper_env_t *env)
237 {
238         const arch_env_t *arch_env = be_get_irg_arch_env(env->irg);
239
240         free_rsm(&env->prolog, arch_env);
241         if (env->epilog.reg_index_map != NULL) {
242                 free_rsm(&env->epilog, arch_env);
243         }
244         free(env);
245 }
246
247 void be_prolog_add_reg(beabi_helper_env_t *env, const arch_register_t *reg,
248                        arch_irn_flags_t flags)
249 {
250         rsm_add_reg(&env->prolog, reg, flags);
251 }
252
253 ir_node *be_prolog_create_start(beabi_helper_env_t *env, dbg_info *dbgi,
254                                 ir_node *block)
255 {
256         int      n_start_outs = ARR_LEN(env->prolog.regs);
257         ir_node *start        = be_new_Start(dbgi, block, n_start_outs);
258         int      o;
259
260         assert(env->prolog.value_map == NULL);
261         env->prolog.value_map = NEW_ARR_F(ir_node*, n_start_outs);
262
263         for (o = 0; o < n_start_outs; ++o) {
264                 const reg_flag_t      *regflag = &env->prolog.regs[o];
265                 const arch_register_t *reg     = regflag->reg;
266                 ir_node               *proj;
267                 if (reg == NULL) {
268                         arch_set_out_register_req(start, o, arch_no_register_req);
269                         proj = new_r_Proj(start, mode_M, o);
270                 } else {
271                         be_set_constr_single_reg_out(start, o, regflag->reg,
272                                                      regflag->flags);
273                         arch_irn_set_register(start, o, regflag->reg);
274                         proj = new_r_Proj(start, reg->reg_class->mode, o);
275                 }
276                 env->prolog.value_map[o] = proj;
277         }
278
279         /* start node should really be the first thing constructed */
280         assert(env->prolog.last_barrier == NULL);
281         env->prolog.last_barrier = start;
282
283         return start;
284 }
285
286 ir_node *be_prolog_create_barrier(beabi_helper_env_t *env, ir_node *block)
287 {
288         return rsm_create_barrier(&env->prolog, block);
289 }
290
291 ir_node *be_prolog_get_reg_value(beabi_helper_env_t *env,
292                                  const arch_register_t *reg)
293 {
294         return rsm_get_reg_value(&env->prolog, reg);
295 }
296
297 ir_node *be_prolog_get_memory(beabi_helper_env_t *env)
298 {
299         return rsm_get_value(&env->prolog, 0);
300 }
301
302 void be_prolog_set_reg_value(beabi_helper_env_t *env,
303                              const arch_register_t *reg, ir_node *value)
304 {
305         rsm_set_reg_value(&env->prolog, reg, value);
306 }
307
308 void be_prolog_set_memory(beabi_helper_env_t *env, ir_node *value)
309 {
310         rsm_set_value(&env->prolog, 0, value);
311 }
312
313
314
315 void be_epilog_begin(beabi_helper_env_t *env)
316 {
317         const arch_env_t *arch_env = be_get_irg_arch_env(env->irg);
318         rsm_clear_regs(&env->epilog, arch_env);
319         env->epilog.value_map    = NEW_ARR_F(ir_node*, 1);
320         env->epilog.value_map[0] = NULL;
321 }
322
323 void be_epilog_add_reg(beabi_helper_env_t *env, const arch_register_t *reg,
324                        arch_irn_flags_t flags, ir_node *value)
325 {
326         int index = rsm_add_reg(&env->epilog, reg, flags);
327         rsm_set_value(&env->epilog, index, value);
328 }
329
330 void be_epilog_set_reg_value(beabi_helper_env_t *env,
331                              const arch_register_t *reg, ir_node *value)
332 {
333         rsm_set_reg_value(&env->epilog, reg, value);
334 }
335
336 void be_epilog_set_memory(beabi_helper_env_t *env, ir_node *value)
337 {
338         rsm_set_value(&env->epilog, 0, value);
339 }
340
341 ir_node *be_epilog_get_reg_value(beabi_helper_env_t *env,
342                                  const arch_register_t *reg)
343 {
344         return rsm_get_reg_value(&env->epilog, reg);
345 }
346
347 ir_node *be_epilog_get_memory(beabi_helper_env_t *env)
348 {
349         return rsm_get_value(&env->epilog, 0);
350 }
351
352 ir_node *be_epilog_create_barrier(beabi_helper_env_t *env, ir_node *block)
353 {
354         return rsm_create_barrier(&env->epilog, block);
355 }
356
357 ir_node *be_epilog_create_return(beabi_helper_env_t *env, dbg_info *dbgi,
358                                  ir_node *block)
359 {
360         int       n_return_in = ARR_LEN(env->epilog.regs);
361         ir_node **in          = env->epilog.value_map;
362         int       n_res       = 1; /* TODO */
363         unsigned  pop         = 0; /* TODO */
364         int       i;
365         ir_node  *ret;
366
367         assert(ARR_LEN(env->epilog.value_map) == n_return_in);
368
369         ret = be_new_Return(dbgi, get_irn_irg(block), block, n_res, pop,
370                             n_return_in, in);
371         for (i = 0; i < n_return_in; ++i) {
372                 const reg_flag_t      *regflag = &env->epilog.regs[i];
373                 const arch_register_t *reg     = regflag->reg;
374                 if (reg != NULL) {
375                         be_set_constr_single_reg_in(ret, i, reg, 0);
376                 }
377         }
378
379         rsm_clear_regs(&env->epilog, be_get_irg_arch_env(env->irg));
380         env->epilog.last_barrier = NULL;
381
382         return ret;
383 }
384
385 static void add_missing_keep_walker(ir_node *node, void *data)
386 {
387         int              n_outs, i;
388         unsigned        *found_projs;
389         const ir_edge_t *edge;
390         ir_mode         *mode = get_irn_mode(node);
391         ir_node         *last_keep;
392         (void) data;
393         if (mode != mode_T)
394                 return;
395
396         n_outs = arch_irn_get_n_outs(node);
397         if (n_outs <= 0)
398                 return;
399
400         rbitset_alloca(found_projs, n_outs);
401         foreach_out_edge(node, edge) {
402                 ir_node *succ = get_edge_src_irn(edge);
403                 ir_mode *mode = get_irn_mode(succ);
404                 int      pn;
405
406                 /* The node could be kept */
407                 if (is_End(succ) || is_Anchor(succ))
408                         continue;
409
410                 if (mode == mode_M || mode == mode_X)
411                         continue;
412
413                 pn = get_Proj_proj(succ);
414                 assert(pn < n_outs);
415                 rbitset_set(found_projs, pn);
416         }
417
418
419         /* are keeps missing? */
420         last_keep = NULL;
421         for (i = 0; i < n_outs; ++i) {
422                 ir_node                     *block;
423                 ir_node                     *in[1];
424                 const arch_register_req_t   *req;
425                 const arch_register_class_t *cls;
426
427                 if (rbitset_is_set(found_projs, i)) {
428                         continue;
429                 }
430
431                 req = arch_get_out_register_req(node, i);
432                 cls = req->cls;
433                 if (cls == NULL || (cls->flags & arch_register_class_flag_manual_ra)) {
434                         continue;
435                 }
436
437                 block = get_nodes_block(node);
438                 in[0] = new_r_Proj(node, arch_register_class_mode(cls), i);
439                 if (last_keep != NULL) {
440                         be_Keep_add_node(last_keep, cls, in[0]);
441                 } else {
442                         last_keep = be_new_Keep(block, 1, in);
443                         if (sched_is_scheduled(node)) {
444                                 sched_add_after(node, last_keep);
445                         }
446                 }
447         }
448 }
449
450 void be_add_missing_keeps(ir_graph *irg)
451 {
452         irg_walk_graph(irg, add_missing_keep_walker, NULL, NULL);
453 }
454
455
456
457 static void collect_node(ir_node *node)
458 {
459         ir_node *block = get_nodes_block(node);
460         ir_node *old   = get_irn_link(block);
461
462         set_irn_link(node, old);
463         set_irn_link(block, node);
464 }
465
466 static void link_ops_in_block_walker(ir_node *node, void *data)
467 {
468         (void) data;
469
470         switch (get_irn_opcode(node)) {
471         case iro_Return:
472         case iro_Call:
473                 collect_node(node);
474                 break;
475         case iro_Alloc:
476                 /** all non-stack alloc nodes should be lowered before the backend */
477                 assert(get_Alloc_where(node) == stack_alloc);
478                 collect_node(node);
479                 break;
480         case iro_Free:
481                 assert(get_Free_where(node) == stack_alloc);
482                 collect_node(node);
483                 break;
484         case iro_Builtin:
485                 if (get_Builtin_kind(node) == ir_bk_return_address) {
486                         ir_node *param = get_Builtin_param(node, 0);
487                         tarval  *tv    = get_Const_tarval(param); /* must be Const */
488                         long     value = get_tarval_long(tv);
489                         if (value > 0) {
490                                 /* we need esp for the climbframe algo */
491                                 collect_node(node);
492                         }
493                 }
494                 break;
495         default:
496                 break;
497         }
498 }
499
500 static heights_t *heights;
501
502 /**
503  * Check if a node is somehow data dependent on another one.
504  * both nodes must be in the same basic block.
505  * @param n1 The first node.
506  * @param n2 The second node.
507  * @return 1, if n1 is data dependent (transitively) on n2, 0 if not.
508  */
509 static int dependent_on(const ir_node *n1, const ir_node *n2)
510 {
511         assert(get_nodes_block(n1) == get_nodes_block(n2));
512
513         return heights_reachable_in_block(heights, n1, n2);
514 }
515
516 static int cmp_call_dependency(const void *c1, const void *c2)
517 {
518         const ir_node *n1 = *(const ir_node **) c1;
519         const ir_node *n2 = *(const ir_node **) c2;
520
521         /*
522                 Classical qsort() comparison function behavior:
523                 0  if both elements are equal
524                 1  if second is "smaller" that first
525                 -1 if first is "smaller" that second
526         */
527         if (dependent_on(n1, n2))
528                 return 1;
529
530         if (dependent_on(n2, n1))
531                 return -1;
532
533         /* The nodes have no depth order, but we need a total order because qsort()
534          * is not stable. */
535         return get_irn_idx(n2) - get_irn_idx(n1);
536 }
537
538 static void process_ops_in_block(ir_node *block, void *data)
539 {
540         ir_phase *phase = data;
541         unsigned  n;
542         unsigned  n_nodes;
543         ir_node  *node;
544         ir_node **nodes;
545
546         n_nodes = 0;
547         for (node = get_irn_link(block); node != NULL; node = get_irn_link(node)) {
548                 ++n_nodes;
549         }
550
551         if (n_nodes == 0)
552                 return;
553
554         nodes = XMALLOCN(ir_node*, n_nodes);
555         n = 0;
556         for (node = get_irn_link(block); node != NULL; node = get_irn_link(node)) {
557                 nodes[n++] = node;;
558         }
559         assert(n == n_nodes);
560
561         /* order nodes according to their data dependencies */
562         qsort(nodes, n_nodes, sizeof(nodes[0]), cmp_call_dependency);
563
564         for (n = n_nodes-1; n > 0; --n) {
565                 ir_node *node = nodes[n];
566                 ir_node *pred = nodes[n-1];
567
568                 phase_set_irn_data(phase, node, pred);
569         }
570 }
571
572 void be_collect_stacknodes(beabi_helper_env_t *env)
573 {
574         ir_graph *irg = env->irg;
575         irg_walk_graph(irg, firm_clear_link, link_ops_in_block_walker, NULL);
576
577         assert(env->stack_order == NULL);
578         env->stack_order = new_phase(irg, phase_irn_init_default);
579
580         heights = heights_new(irg);
581         irg_block_walk_graph(irg, NULL, process_ops_in_block, env->stack_order);
582         heights_free(heights);
583 }
584
585 ir_node *be_get_stack_pred(const beabi_helper_env_t *env, const ir_node *node)
586 {
587         return phase_get_irn_data(env->stack_order, node);
588 }