beuses: Remove stale start loop test.
[libfirm] / ir / be / beabihelper.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       Helper functions for handling ABI constraints in the code
23  *              selection phase.
24  * @author      Matthias Braun
25  */
26 #include "config.h"
27
28 #include "beabihelper.h"
29 #include "bearch.h"
30 #include "beirg.h"
31 #include "benode.h"
32 #include "besched.h"
33 #include "ircons.h"
34 #include "iredges.h"
35 #include "irgwalk.h"
36 #include "irnodemap.h"
37 #include "irtools.h"
38 #include "heights.h"
39
40 /**
41  * An entry in the register state map.
42  */
43 typedef struct reg_flag_t {
44         const arch_register_t *reg;     /**< register at an input position.
45                                              may be NULL in case of memory input */
46         arch_register_req_type_t flags; /**< requirement flags for this register. */
47 } reg_flag_t;
48
49 /**
50  * A register state mapping keeps track of the symbol values (=firm nodes)
51  * to registers. This is useful when constructing straight line code
52  * like the function prolog or epilog in some architectures.
53  */
54 typedef struct register_state_mapping_t {
55         ir_node   **value_map;     /**< mapping of state indices to values */
56         size_t    **reg_index_map; /**< mapping of regclass,regnum to an index
57                                         into the value_map */
58         reg_flag_t *regs;          /**< registers (and memory values) that form a
59                                         state */
60 } register_state_mapping_t;
61
62 /**
63  * The environment for all helper functions.
64  */
65 struct beabi_helper_env_t {
66         ir_graph                 *irg;         /**< the graph we operate on */
67         register_state_mapping_t  prolog;      /**< the register state map for the prolog */
68         register_state_mapping_t  epilog;      /**< the register state map for the epilog */
69 };
70
71 /**
72  * Create a new empty register state map for the given
73  * architecture.
74  *
75  * @param rsm       the register state map to be initialized
76  * @param arch_env  the architecture environment
77  *
78  * After this call, the register map is initialized to empty.
79  */
80 static void prepare_rsm(register_state_mapping_t *rsm,
81                         const arch_env_t *arch_env)
82 {
83         unsigned   n_reg_classes = arch_env->n_register_classes;
84         unsigned   c;
85         reg_flag_t memory = { NULL, arch_register_req_type_none };
86
87         rsm->regs = NEW_ARR_F(reg_flag_t, 0);
88         /* memory input at 0 */
89         ARR_APP1(reg_flag_t, rsm->regs, memory);
90
91         rsm->value_map     = NULL;
92         rsm->reg_index_map = XMALLOCN(size_t*, n_reg_classes);
93         for (c = 0; c < n_reg_classes; ++c) {
94                 const arch_register_class_t *cls    = &arch_env->register_classes[c];
95                 unsigned                     n_regs = arch_register_class_n_regs(cls);
96                 unsigned                     r;
97
98                 rsm->reg_index_map[c] = XMALLOCN(size_t, n_regs);
99                 for (r = 0; r < n_regs; ++r) {
100                         rsm->reg_index_map[c][r] = (size_t)-1;
101                 }
102         }
103 }
104
105 /**
106  * Destroy a register state map for the given
107  * architecture.
108  *
109  * @param rsm       the register state map to be destroyed
110  * @param arch_env  the architecture environment
111  *
112  * After this call, the register map is initialized to empty.
113  */
114 static void free_rsm(register_state_mapping_t *rsm, const arch_env_t *arch_env)
115 {
116         unsigned n_reg_classes = arch_env->n_register_classes;
117         unsigned c;
118
119         for (c = 0; c < n_reg_classes; ++c) {
120                 free(rsm->reg_index_map[c]);
121         }
122
123         free(rsm->reg_index_map);
124         if (rsm->value_map != NULL)
125                 DEL_ARR_F(rsm->value_map);
126         DEL_ARR_F(rsm->regs);
127
128         rsm->regs          = NULL;
129         rsm->reg_index_map = NULL;
130         rsm->value_map     = NULL;
131 }
132
133 /**
134  * Remove all registers from a register state map.
135  *
136  * @param rsm       the register state map to be destroyed
137  * @param arch_env  the architecture environment
138  */
139 static void rsm_clear_regs(register_state_mapping_t *rsm,
140                            const arch_env_t *arch_env)
141 {
142         unsigned   n_reg_classes = arch_env->n_register_classes;
143         unsigned   c;
144         reg_flag_t memory = { NULL, arch_register_req_type_none };
145
146         for (c = 0; c < n_reg_classes; ++c) {
147                 const arch_register_class_t *cls    = &arch_env->register_classes[c];
148                 unsigned                     n_regs = arch_register_class_n_regs(cls);
149                 unsigned                     r;
150
151                 for (r = 0; r < n_regs; ++r) {
152                         rsm->reg_index_map[c][r] = (size_t)-1;
153                 }
154         }
155         ARR_RESIZE(reg_flag_t, rsm->regs, 0);
156         ARR_APP1(reg_flag_t, rsm->regs, memory);
157
158         if (rsm->value_map != NULL) {
159                 DEL_ARR_F(rsm->value_map);
160                 rsm->value_map = NULL;
161         }
162 }
163
164 /**
165  * Add a register and its constraint flags to a register state map
166  * and return its index inside the map.
167  */
168 static size_t rsm_add_reg(register_state_mapping_t *rsm,
169                           const arch_register_t *reg,
170                            arch_register_req_type_t flags)
171 {
172         size_t     input_idx = ARR_LEN(rsm->regs);
173         int        cls_idx   = reg->reg_class->index;
174         int        reg_idx   = reg->index;
175         reg_flag_t regflag   = { reg, flags };
176
177         /* we must not have used get_value yet */
178         assert(rsm->reg_index_map[cls_idx][reg_idx] == (size_t)-1);
179         rsm->reg_index_map[cls_idx][reg_idx] = input_idx;
180         ARR_APP1(reg_flag_t, rsm->regs, regflag);
181
182         if (rsm->value_map != NULL) {
183                 ARR_APP1(ir_node*, rsm->value_map, NULL);
184                 assert(ARR_LEN(rsm->value_map) == ARR_LEN(rsm->regs));
185         }
186         return input_idx;
187 }
188
189 /**
190  * Retrieve the ir_node stored at the given index in the register state map.
191  */
192 static ir_node *rsm_get_value(register_state_mapping_t *rsm, size_t index)
193 {
194         assert(index < ARR_LEN(rsm->value_map));
195         return rsm->value_map[index];
196 }
197
198 /**
199  * Retrieve the ir_node occupying the given register in the register state map.
200  */
201 static ir_node *rsm_get_reg_value(register_state_mapping_t *rsm,
202                                   const arch_register_t *reg)
203 {
204         int    cls_idx   = reg->reg_class->index;
205         int    reg_idx   = reg->index;
206         size_t input_idx = rsm->reg_index_map[cls_idx][reg_idx];
207
208         return rsm_get_value(rsm, input_idx);
209 }
210
211 /**
212  * Enter a ir_node at the given index in the register state map.
213  */
214 static void rsm_set_value(register_state_mapping_t *rsm, size_t index,
215                           ir_node *value)
216 {
217         assert(index < ARR_LEN(rsm->value_map));
218         rsm->value_map[index] = value;
219 }
220
221 /**
222  * Enter a ir_node at the given register in the register state map.
223  */
224 static void rsm_set_reg_value(register_state_mapping_t *rsm,
225                               const arch_register_t *reg, ir_node *value)
226 {
227         int    cls_idx   = reg->reg_class->index;
228         int    reg_idx   = reg->index;
229         size_t input_idx = rsm->reg_index_map[cls_idx][reg_idx];
230         rsm_set_value(rsm, input_idx, value);
231 }
232
233
234 beabi_helper_env_t *be_abihelper_prepare(ir_graph *irg)
235 {
236         const arch_env_t   *arch_env = be_get_irg_arch_env(irg);
237         beabi_helper_env_t *env      = XMALLOCZ(beabi_helper_env_t);
238
239         env->irg = irg;
240         prepare_rsm(&env->prolog, arch_env);
241         prepare_rsm(&env->epilog, arch_env);
242
243         return env;
244 }
245
246 void be_abihelper_finish(beabi_helper_env_t *env)
247 {
248         const arch_env_t *arch_env = be_get_irg_arch_env(env->irg);
249
250         free_rsm(&env->prolog, arch_env);
251         if (env->epilog.reg_index_map != NULL) {
252                 free_rsm(&env->epilog, arch_env);
253         }
254         xfree(env);
255 }
256
257 void be_prolog_add_reg(beabi_helper_env_t *env, const arch_register_t *reg,
258                        arch_register_req_type_t flags)
259 {
260         rsm_add_reg(&env->prolog, reg, flags);
261 }
262
263 ir_node *be_prolog_create_start(beabi_helper_env_t *env, dbg_info *dbgi,
264                                 ir_node *block)
265 {
266         int      n_start_outs = ARR_LEN(env->prolog.regs);
267         ir_node *start        = be_new_Start(dbgi, block, n_start_outs);
268         int      o;
269
270         assert(env->prolog.value_map == NULL);
271         env->prolog.value_map = NEW_ARR_F(ir_node*, n_start_outs);
272
273         for (o = 0; o < n_start_outs; ++o) {
274                 const reg_flag_t      *regflag = &env->prolog.regs[o];
275                 const arch_register_t *reg     = regflag->reg;
276                 ir_node               *proj;
277                 if (reg == NULL) {
278                         arch_set_irn_register_req_out(start, o, arch_no_register_req);
279                         proj = new_r_Proj(start, mode_M, o);
280                 } else {
281                         be_set_constr_single_reg_out(start, o, regflag->reg,
282                                                      regflag->flags);
283                         arch_set_irn_register_out(start, o, regflag->reg);
284                         proj = new_r_Proj(start, reg->reg_class->mode, o);
285                 }
286                 env->prolog.value_map[o] = proj;
287         }
288
289         return start;
290 }
291
292 ir_node *be_prolog_get_reg_value(beabi_helper_env_t *env,
293                                  const arch_register_t *reg)
294 {
295         return rsm_get_reg_value(&env->prolog, reg);
296 }
297
298 ir_node *be_prolog_get_memory(beabi_helper_env_t *env)
299 {
300         return rsm_get_value(&env->prolog, 0);
301 }
302
303 void be_prolog_set_reg_value(beabi_helper_env_t *env,
304                              const arch_register_t *reg, ir_node *value)
305 {
306         rsm_set_reg_value(&env->prolog, reg, value);
307 }
308
309 void be_prolog_set_memory(beabi_helper_env_t *env, ir_node *value)
310 {
311         rsm_set_value(&env->prolog, 0, value);
312 }
313
314
315
316 void be_epilog_begin(beabi_helper_env_t *env)
317 {
318         const arch_env_t *arch_env = be_get_irg_arch_env(env->irg);
319         rsm_clear_regs(&env->epilog, arch_env);
320         env->epilog.value_map    = NEW_ARR_F(ir_node*, 1);
321         env->epilog.value_map[0] = NULL;
322 }
323
324 void be_epilog_add_reg(beabi_helper_env_t *env, const arch_register_t *reg,
325                        arch_register_req_type_t flags, ir_node *value)
326 {
327         size_t index = rsm_add_reg(&env->epilog, reg, flags);
328         rsm_set_value(&env->epilog, index, value);
329 }
330
331 void be_epilog_set_reg_value(beabi_helper_env_t *env,
332                              const arch_register_t *reg, ir_node *value)
333 {
334         rsm_set_reg_value(&env->epilog, reg, value);
335 }
336
337 void be_epilog_set_memory(beabi_helper_env_t *env, ir_node *value)
338 {
339         rsm_set_value(&env->epilog, 0, value);
340 }
341
342 ir_node *be_epilog_get_reg_value(beabi_helper_env_t *env,
343                                  const arch_register_t *reg)
344 {
345         return rsm_get_reg_value(&env->epilog, reg);
346 }
347
348 ir_node *be_epilog_get_memory(beabi_helper_env_t *env)
349 {
350         return rsm_get_value(&env->epilog, 0);
351 }
352
353 ir_node *be_epilog_create_return(beabi_helper_env_t *env, dbg_info *dbgi,
354                                  ir_node *block)
355 {
356         size_t    n_return_in = ARR_LEN(env->epilog.regs);
357         ir_node **in          = env->epilog.value_map;
358         int       n_res       = 1; /* TODO */
359         unsigned  pop         = 0; /* TODO */
360         size_t    i;
361
362         assert(ARR_LEN(env->epilog.value_map) == n_return_in);
363
364         ir_node *const ret = be_new_Return(dbgi, block, n_res, pop, n_return_in, in);
365         for (i = 0; i < n_return_in; ++i) {
366                 const reg_flag_t      *regflag = &env->epilog.regs[i];
367                 const arch_register_t *reg     = regflag->reg;
368                 if (reg != NULL) {
369                         be_set_constr_single_reg_in(ret, i, reg,
370                                                     arch_register_req_type_none);
371                 }
372         }
373
374         rsm_clear_regs(&env->epilog, be_get_irg_arch_env(env->irg));
375
376         return ret;
377 }
378
379 /**
380  * Tests whether a node has a real user and is not just kept by the End or
381  * Anchor node
382  */
383 static bool has_real_user(const ir_node *node)
384 {
385         foreach_out_edge(node, edge) {
386                 ir_node *user = get_edge_src_irn(edge);
387                 if (!is_End(user) && !is_Anchor(user))
388                         return true;
389         }
390         return false;
391 }
392
393 static ir_node *add_to_keep(ir_node *last_keep,
394                             const arch_register_class_t *cls, ir_node *node)
395 {
396         if (last_keep != NULL) {
397                 be_Keep_add_node(last_keep, cls, node);
398         } else {
399                 ir_node *in[1] = { node };
400                 ir_node *block = get_nodes_block(node);
401                 ir_node *schedpoint;
402                 last_keep = be_new_Keep(block, 1, in);
403
404                 schedpoint = skip_Proj(node);
405                 if (sched_is_scheduled(schedpoint)) {
406                         sched_add_after(schedpoint, last_keep);
407                 }
408         }
409         return last_keep;
410 }
411
412 void be_add_missing_keeps_node(ir_node *node)
413 {
414         int       n_outs, i;
415         ir_mode  *mode = get_irn_mode(node);
416         ir_node  *last_keep;
417
418         if (mode != mode_T) {
419                 if (!has_real_user(node)) {
420                         const arch_register_req_t   *req = arch_get_irn_register_req(node);
421                         const arch_register_class_t *cls = req->cls;
422                         if (cls == NULL
423                                         || (cls->flags & arch_register_class_flag_manual_ra)) {
424                                 return;
425                         }
426
427                         add_to_keep(NULL, cls, node);
428                 }
429                 return;
430         }
431
432         n_outs = arch_get_irn_n_outs(node);
433         if (n_outs <= 0)
434                 return;
435
436         unsigned *const found_projs    = rbitset_alloca(n_outs);
437         ir_node **const existing_projs = ALLOCANZ(ir_node*, n_outs);
438         foreach_out_edge(node, edge) {
439                 ir_node *succ = get_edge_src_irn(edge);
440                 ir_mode *mode = get_irn_mode(succ);
441                 int      pn;
442
443                 /* The node could be kept */
444                 if (is_End(succ) || is_Anchor(succ))
445                         continue;
446                 if (mode == mode_M || mode == mode_X)
447                         continue;
448                 pn                 = get_Proj_proj(succ);
449                 existing_projs[pn] = succ;
450                 if (!has_real_user(succ))
451                         continue;
452
453                 assert(pn < n_outs);
454                 rbitset_set(found_projs, pn);
455         }
456
457         /* are keeps missing? */
458         last_keep = NULL;
459         for (i = 0; i < n_outs; ++i) {
460                 ir_node                     *value;
461                 const arch_register_req_t   *req;
462                 const arch_register_class_t *cls;
463
464                 if (rbitset_is_set(found_projs, i)) {
465                         continue;
466                 }
467
468                 req = arch_get_irn_register_req_out(node, i);
469                 cls = req->cls;
470                 if (cls == NULL || (cls->flags & arch_register_class_flag_manual_ra)) {
471                         continue;
472                 }
473
474                 value = existing_projs[i];
475                 if (value == NULL)
476                         value = new_r_Proj(node, arch_register_class_mode(cls), i);
477                 last_keep = add_to_keep(last_keep, cls, value);
478         }
479 }
480
481 static void add_missing_keep_walker(ir_node *node, void *data)
482 {
483         (void)data;
484         be_add_missing_keeps_node(node);
485 }
486
487 void be_add_missing_keeps(ir_graph *irg)
488 {
489         irg_walk_graph(irg, add_missing_keep_walker, NULL, NULL);
490 }
491
492
493 /**
494  * Link the node into its block list as a new head.
495  */
496 static void collect_node(ir_node *node)
497 {
498         ir_node *block = get_nodes_block(node);
499         ir_node *old   = (ir_node*)get_irn_link(block);
500
501         set_irn_link(node, old);
502         set_irn_link(block, node);
503 }
504
505 /**
506  * Post-walker: link all nodes that probably access the stack into lists of their block.
507  */
508 static void link_ops_in_block_walker(ir_node *node, void *data)
509 {
510         (void) data;
511
512         switch (get_irn_opcode(node)) {
513         case iro_Return:
514         case iro_Call:
515                 collect_node(node);
516                 break;
517         case iro_Alloc:
518                 /** all non-stack alloc nodes should be lowered before the backend */
519                 assert(get_Alloc_where(node) == stack_alloc);
520                 collect_node(node);
521                 break;
522         case iro_Free:
523                 assert(get_Free_where(node) == stack_alloc);
524                 collect_node(node);
525                 break;
526         case iro_Builtin:
527                 if (get_Builtin_kind(node) == ir_bk_return_address) {
528                         ir_node   *param = get_Builtin_param(node, 0);
529                         ir_tarval *tv    = get_Const_tarval(param); /* must be Const */
530                         long       value = get_tarval_long(tv);
531                         if (value > 0) {
532                                 /* not the return address of the current function:
533                                  * we need the stack pointer for the frame climbing */
534                                 collect_node(node);
535                         }
536                 }
537                 break;
538         default:
539                 break;
540         }
541 }
542
543 static ir_heights_t *heights;
544
545 /**
546  * Check if a node is somehow data dependent on another one.
547  * both nodes must be in the same basic block.
548  * @param n1 The first node.
549  * @param n2 The second node.
550  * @return 1, if n1 is data dependent (transitively) on n2, 0 if not.
551  */
552 static int dependent_on(const ir_node *n1, const ir_node *n2)
553 {
554         assert(get_nodes_block(n1) == get_nodes_block(n2));
555
556         return heights_reachable_in_block(heights, n1, n2);
557 }
558
559 /**
560  * Classical qsort() comparison function behavior:
561  *
562  * 0  if both elements are equal, no node depend on the other
563  * +1 if first depends on second (first is greater)
564  * -1 if second depends on first (second is greater)
565 */
566 static int cmp_call_dependency(const void *c1, const void *c2)
567 {
568         const ir_node *n1 = *(const ir_node **) c1;
569         const ir_node *n2 = *(const ir_node **) c2;
570         unsigned h1, h2;
571
572         if (dependent_on(n1, n2))
573                 return 1;
574
575         if (dependent_on(n2, n1))
576                 return -1;
577
578         /* The nodes have no depth order, but we need a total order because qsort()
579          * is not stable.
580          *
581          * Additionally, we need to respect transitive dependencies. Consider a
582          * Call a depending on Call b and an independent Call c.
583          * We MUST NOT order c > a and b > c. */
584         h1 = get_irn_height(heights, n1);
585         h2 = get_irn_height(heights, n2);
586         if (h1 < h2) return  1;
587         if (h1 > h2) return -1;
588         /* Same height, so use a random (but stable) order */
589         return get_irn_idx(n2) - get_irn_idx(n1);
590 }
591
592 /**
593  * Block-walker: sorts dependencies and remember them into a phase
594  */
595 static void process_ops_in_block(ir_node *block, void *data)
596 {
597         ir_nodemap *map = (ir_nodemap*)data;
598         unsigned    n;
599         unsigned    n_nodes;
600         ir_node    *node;
601         ir_node   **nodes;
602
603         n_nodes = 0;
604         for (node = (ir_node*)get_irn_link(block); node != NULL;
605              node = (ir_node*)get_irn_link(node)) {
606                 ++n_nodes;
607         }
608
609         if (n_nodes == 0)
610                 return;
611
612         nodes = XMALLOCN(ir_node*, n_nodes);
613         n = 0;
614         for (node = (ir_node*)get_irn_link(block); node != NULL;
615              node = (ir_node*)get_irn_link(node)) {
616                 nodes[n++] = node;
617         }
618         assert(n == n_nodes);
619
620         /* order nodes according to their data dependencies */
621         qsort(nodes, n_nodes, sizeof(nodes[0]), cmp_call_dependency);
622
623         /* remember the calculated dependency into a phase */
624         for (n = n_nodes-1; n > 0; --n) {
625                 ir_node *node = nodes[n];
626                 ir_node *pred = nodes[n-1];
627
628                 ir_nodemap_insert(map, node, pred);
629         }
630         xfree(nodes);
631 }
632
633
634
635 struct be_stackorder_t {
636         ir_nodemap stack_order; /**< a phase to handle stack dependencies. */
637 };
638
639 be_stackorder_t *be_collect_stacknodes(ir_graph *irg)
640 {
641         be_stackorder_t *env = XMALLOCZ(be_stackorder_t);
642
643         ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK);
644
645         /* collect all potential^stack accessing nodes */
646         irg_walk_graph(irg, firm_clear_link, link_ops_in_block_walker, NULL);
647
648         ir_nodemap_init(&env->stack_order, irg);
649
650         /* use heights to create a total order for those nodes: this order is stored
651          * in the created phase */
652         heights = heights_new(irg);
653         irg_block_walk_graph(irg, NULL, process_ops_in_block, &env->stack_order);
654         heights_free(heights);
655
656         ir_free_resources(irg, IR_RESOURCE_IRN_LINK);
657
658         return env;
659 }
660
661 ir_node *be_get_stack_pred(const be_stackorder_t *env, const ir_node *node)
662 {
663         return ir_nodemap_get(ir_node, &env->stack_order, node);
664 }
665
666 void be_free_stackorder(be_stackorder_t *env)
667 {
668         ir_nodemap_destroy(&env->stack_order);
669         free(env);
670 }
671
672 static void create_stores_for_type(ir_graph *irg, ir_type *type)
673 {
674         size_t   n           = get_compound_n_members(type);
675         ir_node *frame       = get_irg_frame(irg);
676         ir_node *initial_mem = get_irg_initial_mem(irg);
677         ir_node *mem         = initial_mem;
678         ir_node *first_store = NULL;
679         ir_node *start_block = get_irg_start_block(irg);
680         ir_node *args        = get_irg_args(irg);
681         size_t   i;
682
683         /* all parameter entities left in the frame type require stores.
684          * (The ones passed on the stack have been moved to the arg type) */
685         for (i = 0; i < n; ++i) {
686                 ir_entity *entity = get_compound_member(type, i);
687                 ir_node   *addr;
688                 size_t     arg;
689                 if (!is_parameter_entity(entity))
690                         continue;
691
692                 arg = get_entity_parameter_number(entity);
693                 if (arg == IR_VA_START_PARAMETER_NUMBER)
694                         continue;
695
696                 addr = new_r_Sel(start_block, mem, frame, 0, NULL, entity);
697                 if (entity->attr.parameter.doubleword_low_mode != NULL) {
698                         ir_mode *mode      = entity->attr.parameter.doubleword_low_mode;
699                         ir_node *val0      = new_r_Proj(args, mode, arg);
700                         ir_node *val1      = new_r_Proj(args, mode, arg+1);
701                         ir_node *store0    = new_r_Store(start_block, mem, addr, val0,
702                                                          cons_none);
703                         ir_node *mem0      = new_r_Proj(store0, mode_M, pn_Store_M);
704                         size_t   offset    = get_mode_size_bits(mode)/8;
705                         ir_mode *addr_mode = get_irn_mode(addr);
706                         ir_node *cnst      = new_r_Const_long(irg, addr_mode, offset);
707                         ir_node *next_addr = new_r_Add(start_block, addr, cnst, addr_mode);
708                         ir_node *store1    = new_r_Store(start_block, mem0, next_addr, val1,
709                                                          cons_none);
710                         mem = new_r_Proj(store1, mode_M, pn_Store_M);
711                         if (first_store == NULL)
712                                 first_store = store0;
713                 } else {
714                         ir_type *tp    = get_entity_type(entity);
715                         ir_mode *mode  = is_compound_type(tp) ? mode_P : get_type_mode(tp);
716                         ir_node *val   = new_r_Proj(args, mode, arg);
717                         ir_node *store = new_r_Store(start_block, mem, addr, val, cons_none);
718                         mem = new_r_Proj(store, mode_M, pn_Store_M);
719                         if (first_store == NULL)
720                                 first_store = store;
721                 }
722         }
723
724         if (mem != initial_mem)
725                 edges_reroute_except(initial_mem, mem, first_store);
726 }
727
728 void be_add_parameter_entity_stores(ir_graph *irg)
729 {
730         ir_type           *frame_type   = get_irg_frame_type(irg);
731         be_stack_layout_t *layout       = be_get_irg_stack_layout(irg);
732         ir_type           *between_type = layout->between_type;
733
734         create_stores_for_type(irg, frame_type);
735         if (between_type != NULL) {
736                 create_stores_for_type(irg, between_type);
737         }
738 }