remove debug printfs
[libfirm] / ir / be / ia32 / ia32_transform.c
1 /*
2  * Copyright (C) 1995-2007 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       This file implements the IR transformation from firm into ia32-Firm.
23  * @author      Christian Wuerdig, Matthias Braun
24  * @version     $Id$
25  */
26 #ifdef HAVE_CONFIG_H
27 #include "config.h"
28 #endif
29
30 #include <limits.h>
31
32 #include "irargs_t.h"
33 #include "irnode_t.h"
34 #include "irgraph_t.h"
35 #include "irmode_t.h"
36 #include "iropt_t.h"
37 #include "irop_t.h"
38 #include "irprog_t.h"
39 #include "iredges_t.h"
40 #include "irgmod.h"
41 #include "irvrfy.h"
42 #include "ircons.h"
43 #include "irgwalk.h"
44 #include "irprintf.h"
45 #include "debug.h"
46 #include "irdom.h"
47 #include "archop.h"
48 #include "error.h"
49
50 #include "../benode_t.h"
51 #include "../besched.h"
52 #include "../beabi.h"
53 #include "../beutil.h"
54 #include "../beirg_t.h"
55 #include "../betranshlp.h"
56
57 #include "bearch_ia32_t.h"
58 #include "ia32_nodes_attr.h"
59 #include "ia32_transform.h"
60 #include "ia32_new_nodes.h"
61 #include "ia32_map_regs.h"
62 #include "ia32_dbg_stat.h"
63 #include "ia32_optimize.h"
64 #include "ia32_util.h"
65
66 #include "gen_ia32_regalloc_if.h"
67
68 #define SFP_SIGN "0x80000000"
69 #define DFP_SIGN "0x8000000000000000"
70 #define SFP_ABS  "0x7FFFFFFF"
71 #define DFP_ABS  "0x7FFFFFFFFFFFFFFF"
72
73 #define TP_SFP_SIGN "ia32_sfp_sign"
74 #define TP_DFP_SIGN "ia32_dfp_sign"
75 #define TP_SFP_ABS  "ia32_sfp_abs"
76 #define TP_DFP_ABS  "ia32_dfp_abs"
77
78 #define ENT_SFP_SIGN "IA32_SFP_SIGN"
79 #define ENT_DFP_SIGN "IA32_DFP_SIGN"
80 #define ENT_SFP_ABS  "IA32_SFP_ABS"
81 #define ENT_DFP_ABS  "IA32_DFP_ABS"
82
83 #define mode_vfp        (ia32_reg_classes[CLASS_ia32_vfp].mode)
84 #define mode_xmm    (ia32_reg_classes[CLASS_ia32_xmm].mode)
85
86 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
87
88 /** hold the current code generator during transformation */
89 static ia32_code_gen_t *env_cg       = NULL;
90 static ir_node         *initial_fpcw = NULL;
91
92 extern ir_op *get_op_Mulh(void);
93
94 typedef ir_node *construct_binop_func(dbg_info *db, ir_graph *irg,
95         ir_node *block, ir_node *base, ir_node *index, ir_node *op1,
96         ir_node *op2, ir_node *mem);
97
98 typedef ir_node *construct_binop_float_func(dbg_info *db, ir_graph *irg,
99         ir_node *block, ir_node *base, ir_node *index, ir_node *op1,
100         ir_node *op2, ir_node *mem, ir_node *fpcw);
101
102 typedef ir_node *construct_unop_func(dbg_info *db, ir_graph *irg,
103         ir_node *block, ir_node *base, ir_node *index, ir_node *op,
104         ir_node *mem);
105
106 /****************************************************************************************************
107  *                  _        _                        __                           _   _
108  *                 | |      | |                      / _|                         | | (_)
109  *  _ __   ___   __| | ___  | |_ _ __ __ _ _ __  ___| |_ ___  _ __ _ __ ___   __ _| |_ _  ___  _ __
110  * | '_ \ / _ \ / _` |/ _ \ | __| '__/ _` | '_ \/ __|  _/ _ \| '__| '_ ` _ \ / _` | __| |/ _ \| '_ \
111  * | | | | (_) | (_| |  __/ | |_| | | (_| | | | \__ \ || (_) | |  | | | | | | (_| | |_| | (_) | | | |
112  * |_| |_|\___/ \__,_|\___|  \__|_|  \__,_|_| |_|___/_| \___/|_|  |_| |_| |_|\__,_|\__|_|\___/|_| |_|
113  *
114  ****************************************************************************************************/
115
116 static ir_node *try_create_Immediate(ir_node *node,
117                                      char immediate_constraint_type);
118
119 static ir_node *create_immediate_or_transform(ir_node *node,
120                                               char immediate_constraint_type);
121
122 static ir_node *create_I2I_Conv(ir_mode *src_mode, ir_mode *tgt_mode,
123                                 dbg_info *dbgi, ir_node *new_block,
124                                 ir_node *new_op);
125
126 /**
127  * Return true if a mode can be stored in the GP register set
128  */
129 static INLINE int mode_needs_gp_reg(ir_mode *mode) {
130         if(mode == mode_fpcw)
131                 return 0;
132         return mode_is_int(mode) || mode_is_reference(mode) || mode == mode_b;
133 }
134
135 /**
136  * Returns 1 if irn is a Const representing 0, 0 otherwise
137  */
138 static INLINE int is_ia32_Const_0(ir_node *irn) {
139         return is_ia32_irn(irn) && is_ia32_Const(irn) && get_ia32_immop_type(irn) == ia32_ImmConst
140                && tarval_is_null(get_ia32_Immop_tarval(irn));
141 }
142
143 /**
144  * Returns 1 if irn is a Const representing 1, 0 otherwise
145  */
146 static INLINE int is_ia32_Const_1(ir_node *irn) {
147         return is_ia32_irn(irn) && is_ia32_Const(irn) && get_ia32_immop_type(irn) == ia32_ImmConst
148                && tarval_is_one(get_ia32_Immop_tarval(irn));
149 }
150
151 /**
152  * Collects all Projs of a node into the node array. Index is the projnum.
153  * BEWARE: The caller has to assure the appropriate array size!
154  */
155 static void ia32_collect_Projs(ir_node *irn, ir_node **projs, int size) {
156         const ir_edge_t *edge;
157         assert(get_irn_mode(irn) == mode_T && "need mode_T");
158
159         memset(projs, 0, size * sizeof(projs[0]));
160
161         foreach_out_edge(irn, edge) {
162                 ir_node *proj = get_edge_src_irn(edge);
163                 int proj_proj = get_Proj_proj(proj);
164                 assert(proj_proj < size);
165                 projs[proj_proj] = proj;
166         }
167 }
168
169 /**
170  * Renumbers the proj having pn_old in the array tp pn_new
171  * and removes the proj from the array.
172  */
173 static INLINE void ia32_renumber_Proj(ir_node **projs, long pn_old, long pn_new) {
174         fprintf(stderr, "Warning: renumber_Proj used!\n");
175         if (projs[pn_old]) {
176                 set_Proj_proj(projs[pn_old], pn_new);
177                 projs[pn_old] = NULL;
178         }
179 }
180
181 /**
182  * creates a unique ident by adding a number to a tag
183  *
184  * @param tag   the tag string, must contain a %d if a number
185  *              should be added
186  */
187 static ident *unique_id(const char *tag)
188 {
189         static unsigned id = 0;
190         char str[256];
191
192         snprintf(str, sizeof(str), tag, ++id);
193         return new_id_from_str(str);
194 }
195
196 /**
197  * Get a primitive type for a mode.
198  */
199 static ir_type *get_prim_type(pmap *types, ir_mode *mode)
200 {
201         pmap_entry *e = pmap_find(types, mode);
202         ir_type *res;
203
204         if (! e) {
205                 char buf[64];
206                 snprintf(buf, sizeof(buf), "prim_type_%s", get_mode_name(mode));
207                 res = new_type_primitive(new_id_from_str(buf), mode);
208                 set_type_alignment_bytes(res, 16);
209                 pmap_insert(types, mode, res);
210         }
211         else
212                 res = e->value;
213         return res;
214 }
215
216 /**
217  * Get an entity that is initialized with a tarval
218  */
219 static ir_entity *get_entity_for_tv(ia32_code_gen_t *cg, ir_node *cnst)
220 {
221         tarval *tv    = get_Const_tarval(cnst);
222         pmap_entry *e = pmap_find(cg->isa->tv_ent, tv);
223         ir_entity *res;
224         ir_graph *rem;
225
226         if (! e) {
227                 ir_mode *mode = get_irn_mode(cnst);
228                 ir_type *tp = get_Const_type(cnst);
229                 if (tp == firm_unknown_type)
230                         tp = get_prim_type(cg->isa->types, mode);
231
232                 res = new_entity(get_glob_type(), unique_id(".LC%u"), tp);
233
234                 set_entity_ld_ident(res, get_entity_ident(res));
235                 set_entity_visibility(res, visibility_local);
236                 set_entity_variability(res, variability_constant);
237                 set_entity_allocation(res, allocation_static);
238
239                  /* we create a new entity here: It's initialization must resist on the
240                     const code irg */
241                 rem = current_ir_graph;
242                 current_ir_graph = get_const_code_irg();
243                 set_atomic_ent_value(res, new_Const_type(tv, tp));
244                 current_ir_graph = rem;
245
246                 pmap_insert(cg->isa->tv_ent, tv, res);
247         } else {
248                 res = e->value;
249         }
250
251         return res;
252 }
253
254 static int is_Const_0(ir_node *node) {
255         if(!is_Const(node))
256                 return 0;
257
258         return classify_Const(node) == CNST_NULL;
259 }
260
261 static int is_Const_1(ir_node *node) {
262         if(!is_Const(node))
263                 return 0;
264
265         return classify_Const(node) == CNST_ONE;
266 }
267
268 /**
269  * Transforms a Const.
270  */
271 static ir_node *gen_Const(ir_node *node) {
272         ir_graph        *irg   = current_ir_graph;
273         ir_node         *old_block = get_nodes_block(node);
274         ir_node         *block = be_transform_node(old_block);
275         dbg_info        *dbgi  = get_irn_dbg_info(node);
276         ir_mode         *mode  = get_irn_mode(node);
277
278         if (mode_is_float(mode)) {
279                 ir_node   *res   = NULL;
280                 ir_node   *noreg = ia32_new_NoReg_gp(env_cg);
281                 ir_node   *nomem = new_NoMem();
282                 ir_node   *load;
283                 ir_entity *floatent;
284
285                 if (! USE_SSE2(env_cg)) {
286                         cnst_classify_t clss = classify_Const(node);
287
288                         if (clss == CNST_NULL) {
289                                 load = new_rd_ia32_vfldz(dbgi, irg, block);
290                                 res  = load;
291                         } else if (clss == CNST_ONE) {
292                                 load = new_rd_ia32_vfld1(dbgi, irg, block);
293                                 res  = load;
294                         } else {
295                                 floatent = get_entity_for_tv(env_cg, node);
296
297                                 load     = new_rd_ia32_vfld(dbgi, irg, block, noreg, noreg, nomem, mode);
298                                 set_ia32_op_type(load, ia32_AddrModeS);
299                                 set_ia32_am_flavour(load, ia32_am_N);
300                                 set_ia32_am_sc(load, floatent);
301                                 set_ia32_flags(load, get_ia32_flags(load) | arch_irn_flags_rematerializable);
302                                 res = new_r_Proj(irg, block, load, mode_vfp, pn_ia32_vfld_res);
303                         }
304                         set_ia32_ls_mode(load, mode);
305                 } else {
306                         floatent = get_entity_for_tv(env_cg, node);
307
308                         load     = new_rd_ia32_xLoad(dbgi, irg, block, noreg, noreg, nomem);
309                         set_ia32_op_type(load, ia32_AddrModeS);
310                         set_ia32_am_flavour(load, ia32_am_N);
311                         set_ia32_am_sc(load, floatent);
312                         set_ia32_ls_mode(load, mode);
313                         set_ia32_flags(load, get_ia32_flags(load) | arch_irn_flags_rematerializable);
314
315                         res = new_r_Proj(irg, block, load, mode_xmm, pn_ia32_xLoad_res);
316                 }
317
318                 SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env_cg, node));
319
320                 /* Const Nodes before the initial IncSP are a bad idea, because
321                  * they could be spilled and we have no SP ready at that point yet.
322                  * So add a dependency to the initial frame pointer calculation to
323                  * avoid that situation.
324                  */
325                 if (get_irg_start_block(irg) == block) {
326                         add_irn_dep(load, get_irg_frame(irg));
327                 }
328
329                 SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env_cg, node));
330                 return res;
331         } else {
332                 ir_node *cnst = new_rd_ia32_Const(dbgi, irg, block);
333
334                 /* see above */
335                 if (get_irg_start_block(irg) == block) {
336                         add_irn_dep(cnst, get_irg_frame(irg));
337                 }
338
339                 set_ia32_Const_attr(cnst, node);
340                 SET_IA32_ORIG_NODE(cnst, ia32_get_old_node_name(env_cg, node));
341                 return cnst;
342         }
343
344         assert(0);
345         return new_r_Bad(irg);
346 }
347
348 /**
349  * Transforms a SymConst.
350  */
351 static ir_node *gen_SymConst(ir_node *node) {
352         ir_graph *irg   = current_ir_graph;
353         ir_node  *old_block = get_nodes_block(node);
354         ir_node  *block = be_transform_node(old_block);
355         dbg_info *dbgi  = get_irn_dbg_info(node);
356         ir_mode  *mode  = get_irn_mode(node);
357         ir_node  *cnst;
358
359         if (mode_is_float(mode)) {
360                 if (USE_SSE2(env_cg))
361                         cnst = new_rd_ia32_xConst(dbgi, irg, block);
362                 else
363                         cnst = new_rd_ia32_vfConst(dbgi, irg, block);
364                 //set_ia32_ls_mode(cnst, mode);
365                 set_ia32_ls_mode(cnst, mode_E);
366         } else {
367                 cnst = new_rd_ia32_Const(dbgi, irg, block);
368         }
369
370         /* Const Nodes before the initial IncSP are a bad idea, because
371          * they could be spilled and we have no SP ready at that point yet
372          */
373         if (get_irg_start_block(irg) == block) {
374                 add_irn_dep(cnst, get_irg_frame(irg));
375         }
376
377         set_ia32_Const_attr(cnst, node);
378         SET_IA32_ORIG_NODE(cnst, ia32_get_old_node_name(env_cg, node));
379
380         return cnst;
381 }
382
383 /* Generates an entity for a known FP const (used for FP Neg + Abs) */
384 ir_entity *ia32_gen_fp_known_const(ia32_known_const_t kct) {
385         static const struct {
386                 const char *tp_name;
387                 const char *ent_name;
388                 const char *cnst_str;
389         } names [ia32_known_const_max] = {
390                 { TP_SFP_SIGN, ENT_SFP_SIGN, SFP_SIGN },        /* ia32_SSIGN */
391                 { TP_DFP_SIGN, ENT_DFP_SIGN, DFP_SIGN },        /* ia32_DSIGN */
392                 { TP_SFP_ABS,  ENT_SFP_ABS,  SFP_ABS },         /* ia32_SABS */
393                 { TP_DFP_ABS,  ENT_DFP_ABS,  DFP_ABS }          /* ia32_DABS */
394         };
395         static ir_entity *ent_cache[ia32_known_const_max];
396
397         const char    *tp_name, *ent_name, *cnst_str;
398         ir_type       *tp;
399         ir_node       *cnst;
400         ir_graph      *rem;
401         ir_entity     *ent;
402         tarval        *tv;
403         ir_mode       *mode;
404
405         ent_name = names[kct].ent_name;
406         if (! ent_cache[kct]) {
407                 tp_name  = names[kct].tp_name;
408                 cnst_str = names[kct].cnst_str;
409
410                 mode = kct == ia32_SSIGN || kct == ia32_SABS ? mode_Iu : mode_Lu;
411                 //mode = mode_xmm;
412                 tv  = new_tarval_from_str(cnst_str, strlen(cnst_str), mode);
413                 tp  = new_type_primitive(new_id_from_str(tp_name), mode);
414                 ent = new_entity(get_glob_type(), new_id_from_str(ent_name), tp);
415
416                 set_entity_ld_ident(ent, get_entity_ident(ent));
417                 set_entity_visibility(ent, visibility_local);
418                 set_entity_variability(ent, variability_constant);
419                 set_entity_allocation(ent, allocation_static);
420
421                 /* we create a new entity here: It's initialization must resist on the
422                     const code irg */
423                 rem = current_ir_graph;
424                 current_ir_graph = get_const_code_irg();
425                 cnst = new_Const(mode, tv);
426                 current_ir_graph = rem;
427
428                 set_atomic_ent_value(ent, cnst);
429
430                 /* cache the entry */
431                 ent_cache[kct] = ent;
432         }
433
434         return ent_cache[kct];
435 }
436
437 #ifndef NDEBUG
438 /**
439  * Prints the old node name on cg obst and returns a pointer to it.
440  */
441 const char *ia32_get_old_node_name(ia32_code_gen_t *cg, ir_node *irn) {
442         ia32_isa_t *isa = (ia32_isa_t *)cg->arch_env->isa;
443
444         lc_eoprintf(firm_get_arg_env(), isa->name_obst, "%+F", irn);
445         obstack_1grow(isa->name_obst, 0);
446         return obstack_finish(isa->name_obst);
447 }
448 #endif /* NDEBUG */
449
450 /* determine if one operator is an Imm */
451 static ir_node *get_immediate_op(ir_node *op1, ir_node *op2) {
452         if (op1) {
453                 return is_ia32_Cnst(op1) ? op1 : (is_ia32_Cnst(op2) ? op2 : NULL);
454         } else {
455                 return is_ia32_Cnst(op2) ? op2 : NULL;
456         }
457 }
458
459 /* determine if one operator is not an Imm */
460 static ir_node *get_expr_op(ir_node *op1, ir_node *op2) {
461         return !is_ia32_Cnst(op1) ? op1 : (!is_ia32_Cnst(op2) ? op2 : NULL);
462 }
463
464 static void fold_immediate(ir_node *node, int in1, int in2) {
465         ir_node *left;
466         ir_node *right;
467
468         if (!(env_cg->opt & IA32_OPT_IMMOPS))
469                 return;
470
471         left = get_irn_n(node, in1);
472         right = get_irn_n(node, in2);
473         if (! is_ia32_Cnst(right) && is_ia32_Cnst(left)) {
474                 /* we can only set right operand to immediate */
475                 if(!is_ia32_commutative(node))
476                         return;
477                 /* exchange left/right */
478                 set_irn_n(node, in1, right);
479                 set_irn_n(node, in2, ia32_get_admissible_noreg(env_cg, node, in2));
480                 copy_ia32_Immop_attr(node, left);
481         } else if(is_ia32_Cnst(right)) {
482                 set_irn_n(node, in2, ia32_get_admissible_noreg(env_cg, node, in2));
483                 copy_ia32_Immop_attr(node, right);
484         } else {
485                 return;
486         }
487
488         clear_ia32_commutative(node);
489         set_ia32_am_support(node, get_ia32_am_support(node) & ~ia32_am_Source,
490                             get_ia32_am_arity(node));
491 }
492
493 /**
494  * Construct a standard binary operation, set AM and immediate if required.
495  *
496  * @param op1   The first operand
497  * @param op2   The second operand
498  * @param func  The node constructor function
499  * @return The constructed ia32 node.
500  */
501 static ir_node *gen_binop(ir_node *node, ir_node *op1, ir_node *op2,
502                           construct_binop_func *func, int commutative)
503 {
504         ir_node  *block    = be_transform_node(get_nodes_block(node));
505         ir_graph *irg      = current_ir_graph;
506         dbg_info *dbgi     = get_irn_dbg_info(node);
507         ir_node  *noreg_gp = ia32_new_NoReg_gp(env_cg);
508         ir_node  *nomem    = new_NoMem();
509         ir_node  *new_node;
510
511         ir_node *new_op1 = be_transform_node(op1);
512         ir_node *new_op2 = create_immediate_or_transform(op2, 0);
513         if (is_ia32_Immediate(new_op2)) {
514                 commutative = 0;
515         }
516
517         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2, nomem);
518         if (func == new_rd_ia32_IMul) {
519                 set_ia32_am_support(new_node, ia32_am_Source, ia32_am_binary);
520         } else {
521                 set_ia32_am_support(new_node, ia32_am_Full, ia32_am_binary);
522         }
523
524         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env_cg, node));
525         if (commutative) {
526                 set_ia32_commutative(new_node);
527         }
528
529         return new_node;
530 }
531
532 /**
533  * Construct a standard binary operation, set AM and immediate if required.
534  *
535  * @param op1   The first operand
536  * @param op2   The second operand
537  * @param func  The node constructor function
538  * @return The constructed ia32 node.
539  */
540 static ir_node *gen_binop_sse_float(ir_node *node, ir_node *op1, ir_node *op2,
541                                     construct_binop_func *func)
542 {
543         ir_node  *block    = be_transform_node(get_nodes_block(node));
544         ir_node  *new_op1  = be_transform_node(op1);
545         ir_node  *new_op2  = be_transform_node(op2);
546         ir_node  *new_node = NULL;
547         dbg_info *dbgi     = get_irn_dbg_info(node);
548         ir_graph *irg      = current_ir_graph;
549         ir_mode  *mode     = get_irn_mode(node);
550         ir_node  *noreg_gp = ia32_new_NoReg_gp(env_cg);
551         ir_node  *nomem    = new_NoMem();
552
553         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2,
554                         nomem);
555         set_ia32_am_support(new_node, ia32_am_Source, ia32_am_binary);
556         if (is_op_commutative(get_irn_op(node))) {
557                 set_ia32_commutative(new_node);
558         }
559         set_ia32_ls_mode(new_node, mode);
560
561         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env_cg, node));
562
563         return new_node;
564 }
565
566 static ir_node *get_fpcw(void)
567 {
568         ir_node *fpcw;
569         if(initial_fpcw != NULL)
570                 return initial_fpcw;
571
572         fpcw         = be_abi_get_ignore_irn(env_cg->birg->abi,
573                                              &ia32_fp_cw_regs[REG_FPCW]);
574         initial_fpcw = be_transform_node(fpcw);
575
576         return initial_fpcw;
577 }
578
579 /**
580  * Construct a standard binary operation, set AM and immediate if required.
581  *
582  * @param op1   The first operand
583  * @param op2   The second operand
584  * @param func  The node constructor function
585  * @return The constructed ia32 node.
586  */
587 static ir_node *gen_binop_x87_float(ir_node *node, ir_node *op1, ir_node *op2,
588                                     construct_binop_float_func *func)
589 {
590         ir_node  *block    = be_transform_node(get_nodes_block(node));
591         ir_node  *new_op1  = be_transform_node(op1);
592         ir_node  *new_op2  = be_transform_node(op2);
593         ir_node  *new_node = NULL;
594         dbg_info *dbgi     = get_irn_dbg_info(node);
595         ir_graph *irg      = current_ir_graph;
596         ir_node  *noreg_gp = ia32_new_NoReg_gp(env_cg);
597         ir_node  *nomem    = new_NoMem();
598
599         new_node = func(dbgi, irg, block, noreg_gp, noreg_gp, new_op1, new_op2,
600                         nomem, get_fpcw());
601         set_ia32_am_support(new_node, ia32_am_Source, ia32_am_binary);
602         if (is_op_commutative(get_irn_op(node))) {
603                 set_ia32_commutative(new_node);
604         }
605
606         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env_cg, node));
607
608         return new_node;
609 }
610
611 /**
612  * Construct a shift/rotate binary operation, sets AM and immediate if required.
613  *
614  * @param op1   The first operand
615  * @param op2   The second operand
616  * @param func  The node constructor function
617  * @return The constructed ia32 node.
618  */
619 static ir_node *gen_shift_binop(ir_node *node, ir_node *op1, ir_node *op2,
620                                 construct_binop_func *func)
621 {
622         ir_node  *block   = be_transform_node(get_nodes_block(node));
623         ir_node  *new_op1 = be_transform_node(op1);
624         ir_node  *new_op2;
625         ir_node  *new_op  = NULL;
626         dbg_info *dbgi    = get_irn_dbg_info(node);
627         ir_graph *irg     = current_ir_graph;
628         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
629         ir_node  *nomem   = new_NoMem();
630
631         assert(! mode_is_float(get_irn_mode(node))
632                  && "Shift/Rotate with float not supported");
633
634         new_op2 = create_immediate_or_transform(op2, 'N');
635
636         new_op = func(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
637
638         /* set AM support */
639         set_ia32_am_support(new_op, ia32_am_Dest, ia32_am_binary);
640
641         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
642
643         set_ia32_emit_cl(new_op);
644
645         return new_op;
646 }
647
648
649 /**
650  * Construct a standard unary operation, set AM and immediate if required.
651  *
652  * @param op    The operand
653  * @param func  The node constructor function
654  * @return The constructed ia32 node.
655  */
656 static ir_node *gen_unop(ir_node *node, ir_node *op, construct_unop_func *func)
657 {
658         ir_node  *block    = be_transform_node(get_nodes_block(node));
659         ir_node  *new_op   = be_transform_node(op);
660         ir_node  *new_node = NULL;
661         ir_graph *irg      = current_ir_graph;
662         dbg_info *dbgi     = get_irn_dbg_info(node);
663         ir_node  *noreg    = ia32_new_NoReg_gp(env_cg);
664         ir_node  *nomem    = new_NoMem();
665
666         new_node = func(dbgi, irg, block, noreg, noreg, new_op, nomem);
667         DB((dbg, LEVEL_1, "INT unop ..."));
668         set_ia32_am_support(new_node, ia32_am_Dest, ia32_am_unary);
669
670         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env_cg, node));
671
672         return new_node;
673 }
674
675 /**
676  * Creates an ia32 Add.
677  *
678  * @return the created ia32 Add node
679  */
680 static ir_node *gen_Add(ir_node *node) {
681         ir_node  *block   = be_transform_node(get_nodes_block(node));
682         ir_node  *op1     = get_Add_left(node);
683         ir_node  *new_op1 = be_transform_node(op1);
684         ir_node  *op2     = get_Add_right(node);
685         ir_node  *new_op2 = be_transform_node(op2);
686         ir_node  *new_op  = NULL;
687         ir_graph *irg     = current_ir_graph;
688         dbg_info *dbgi    = get_irn_dbg_info(node);
689         ir_mode  *mode    = get_irn_mode(node);
690         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
691         ir_node  *nomem   = new_NoMem();
692         ir_node  *expr_op, *imm_op;
693
694         /* Check if immediate optimization is on and */
695         /* if it's an operation with immediate.      */
696         imm_op  = (env_cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(new_op1, new_op2) : NULL;
697         expr_op = get_expr_op(new_op1, new_op2);
698
699         assert((expr_op || imm_op) && "invalid operands");
700
701         if (mode_is_float(mode)) {
702                 if (USE_SSE2(env_cg))
703                         return gen_binop_sse_float(node, op1, op2, new_rd_ia32_xAdd);
704                 else
705                         return gen_binop_x87_float(node, op1, op2, new_rd_ia32_vfadd);
706         }
707
708         /* integer ADD */
709         if (! expr_op) {
710                 ia32_immop_type_t tp1 = get_ia32_immop_type(new_op1);
711                 ia32_immop_type_t tp2 = get_ia32_immop_type(new_op2);
712
713                 /* No expr_op means, that we have two const - one symconst and */
714                 /* one tarval or another symconst - because this case is not   */
715                 /* covered by constant folding                                 */
716                 /* We need to check for:                                       */
717                 /*  1) symconst + const    -> becomes a LEA                    */
718                 /*  2) symconst + symconst -> becomes a const + LEA as the elf */
719                 /*        linker doesn't support two symconsts                 */
720
721                 if (tp1 == ia32_ImmSymConst && tp2 == ia32_ImmSymConst) {
722                         /* this is the 2nd case */
723                         new_op = new_rd_ia32_Lea(dbgi, irg, block, new_op1, noreg);
724                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
725                         set_ia32_am_flavour(new_op, ia32_am_B);
726                         set_ia32_op_type(new_op, ia32_AddrModeS);
727
728                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
729                 } else if (tp1 == ia32_ImmSymConst) {
730                         tarval *tv = get_ia32_Immop_tarval(new_op2);
731                         long offs = get_tarval_long(tv);
732
733                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
734                         add_irn_dep(new_op, get_irg_frame(irg));
735                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
736
737                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op1));
738                         add_ia32_am_offs_int(new_op, offs);
739                         set_ia32_am_flavour(new_op, ia32_am_OB);
740                         set_ia32_op_type(new_op, ia32_AddrModeS);
741                 } else if (tp2 == ia32_ImmSymConst) {
742                         tarval *tv = get_ia32_Immop_tarval(new_op1);
743                         long offs = get_tarval_long(tv);
744
745                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
746                         add_irn_dep(new_op, get_irg_frame(irg));
747                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
748
749                         add_ia32_am_offs_int(new_op, offs);
750                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
751                         set_ia32_am_flavour(new_op, ia32_am_OB);
752                         set_ia32_op_type(new_op, ia32_AddrModeS);
753                 } else {
754                         tarval *tv1 = get_ia32_Immop_tarval(new_op1);
755                         tarval *tv2 = get_ia32_Immop_tarval(new_op2);
756                         tarval *restv = tarval_add(tv1, tv2);
757
758                         DEBUG_ONLY(ir_fprintf(stderr, "Warning: add with 2 consts not folded: %+F\n", node));
759
760                         new_op = new_rd_ia32_Const(dbgi, irg, block);
761                         set_ia32_Const_tarval(new_op, restv);
762                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
763                 }
764
765                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
766                 return new_op;
767         } else if (imm_op) {
768                 if ((env_cg->opt & IA32_OPT_INCDEC) && get_ia32_immop_type(imm_op) == ia32_ImmConst) {
769                         tarval_classification_t class_tv, class_negtv;
770                         tarval *tv = get_ia32_Immop_tarval(imm_op);
771
772                         /* optimize tarvals */
773                         class_tv    = classify_tarval(tv);
774                         class_negtv = classify_tarval(tarval_neg(tv));
775
776                         if (class_tv == TV_CLASSIFY_ONE) { /* + 1 == INC */
777                                 DB((dbg, LEVEL_2, "Add(1) to Inc ... "));
778                                 new_op     = new_rd_ia32_Inc(dbgi, irg, block, noreg, noreg, expr_op, nomem);
779                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
780                                 return new_op;
781                         } else if (class_tv == TV_CLASSIFY_ALL_ONE || class_negtv == TV_CLASSIFY_ONE) { /* + (-1) == DEC */
782                                 DB((dbg, LEVEL_2, "Add(-1) to Dec ... "));
783                                 new_op     = new_rd_ia32_Dec(dbgi, irg, block, noreg, noreg, expr_op, nomem);
784                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
785                                 return new_op;
786                         }
787                 }
788         }
789
790         /* This is a normal add */
791         new_op = new_rd_ia32_Add(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
792
793         /* set AM support */
794         set_ia32_am_support(new_op, ia32_am_Full, ia32_am_binary);
795         set_ia32_commutative(new_op);
796
797         fold_immediate(new_op, 2, 3);
798
799         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
800
801         return new_op;
802 }
803
804 /**
805  * Creates an ia32 Mul.
806  *
807  * @return the created ia32 Mul node
808  */
809 static ir_node *gen_Mul(ir_node *node) {
810         ir_node *op1  = get_Mul_left(node);
811         ir_node *op2  = get_Mul_right(node);
812         ir_mode *mode = get_irn_mode(node);
813
814         if (mode_is_float(mode)) {
815                 if (USE_SSE2(env_cg))
816                         return gen_binop_sse_float(node, op1, op2, new_rd_ia32_xMul);
817                 else
818                         return gen_binop_x87_float(node, op1, op2, new_rd_ia32_vfmul);
819         }
820
821         /*
822                 for the lower 32bit of the result it doesn't matter whether we use
823                 signed or unsigned multiplication so we use IMul as it has fewer
824                 constraints
825         */
826         return gen_binop(node, op1, op2, new_rd_ia32_IMul, 1);
827 }
828
829 /**
830  * Creates an ia32 Mulh.
831  * Note: Mul produces a 64Bit result and Mulh returns the upper 32 bit of
832  * this result while Mul returns the lower 32 bit.
833  *
834  * @return the created ia32 Mulh node
835  */
836 static ir_node *gen_Mulh(ir_node *node) {
837         ir_node  *block   = be_transform_node(get_nodes_block(node));
838         ir_node  *op1     = get_irn_n(node, 0);
839         ir_node  *new_op1 = be_transform_node(op1);
840         ir_node  *op2     = get_irn_n(node, 1);
841         ir_node  *new_op2 = be_transform_node(op2);
842         ir_graph *irg     = current_ir_graph;
843         dbg_info *dbgi    = get_irn_dbg_info(node);
844         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
845         ir_mode  *mode    = get_irn_mode(node);
846         ir_node  *proj_EDX, *res;
847
848         assert(!mode_is_float(mode) && "Mulh with float not supported");
849         if (mode_is_signed(mode)) {
850                 res = new_rd_ia32_IMul1OP(dbgi, irg, block, noreg, noreg, new_op1,
851                                           new_op2, new_NoMem());
852         } else {
853                 res = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_op1, new_op2,
854                                       new_NoMem());
855         }
856
857         set_ia32_commutative(res);
858         set_ia32_am_support(res, ia32_am_Source, ia32_am_binary);
859
860         proj_EDX = new_rd_Proj(dbgi, irg, block, res, mode_Iu, pn_EDX);
861
862         return proj_EDX;
863 }
864
865
866
867 /**
868  * Creates an ia32 And.
869  *
870  * @return The created ia32 And node
871  */
872 static ir_node *gen_And(ir_node *node) {
873         ir_node *op1 = get_And_left(node);
874         ir_node *op2 = get_And_right(node);
875         assert(! mode_is_float(get_irn_mode(node)));
876
877         /* check for zero extension first */
878         if (is_Const(op2)) {
879                 tarval   *tv    = get_Const_tarval(op2);
880                 long      v     = get_tarval_long(tv);
881
882                 if (v == 0xFF || v == 0xFFFF) {
883                         dbg_info *dbgi   = get_irn_dbg_info(node);
884                         ir_node  *block  = be_transform_node(get_nodes_block(node));
885                         ir_node  *new_op = be_transform_node(op1);
886                         ir_mode  *src_mode;
887                         ir_node  *res;
888
889                         if(v == 0xFF) {
890                                 src_mode = mode_Bu;
891                         } else {
892                                 assert(v == 0xFFFF);
893                                 src_mode = mode_Hu;
894                         }
895                         res = create_I2I_Conv(src_mode, mode_Iu, dbgi, block, new_op);
896                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
897
898                         return res;
899                 }
900         }
901
902         return gen_binop(node, op1, op2, new_rd_ia32_And, 1);
903 }
904
905
906
907 /**
908  * Creates an ia32 Or.
909  *
910  * @return The created ia32 Or node
911  */
912 static ir_node *gen_Or(ir_node *node) {
913         ir_node *op1 = get_Or_left(node);
914         ir_node *op2 = get_Or_right(node);
915
916         assert (! mode_is_float(get_irn_mode(node)));
917         return gen_binop(node, op1, op2, new_rd_ia32_Or, 1);
918 }
919
920
921
922 /**
923  * Creates an ia32 Eor.
924  *
925  * @return The created ia32 Eor node
926  */
927 static ir_node *gen_Eor(ir_node *node) {
928         ir_node *op1 = get_Eor_left(node);
929         ir_node *op2 = get_Eor_right(node);
930
931         assert(! mode_is_float(get_irn_mode(node)));
932         return gen_binop(node, op1, op2, new_rd_ia32_Xor, 1);
933 }
934
935
936 /**
937  * Creates an ia32 Sub.
938  *
939  * @return The created ia32 Sub node
940  */
941 static ir_node *gen_Sub(ir_node *node) {
942         ir_node  *block   = be_transform_node(get_nodes_block(node));
943         ir_node  *op1     = get_Sub_left(node);
944         ir_node  *new_op1 = be_transform_node(op1);
945         ir_node  *op2     = get_Sub_right(node);
946         ir_node  *new_op2 = be_transform_node(op2);
947         ir_node  *new_op  = NULL;
948         ir_graph *irg     = current_ir_graph;
949         dbg_info *dbgi    = get_irn_dbg_info(node);
950         ir_mode  *mode    = get_irn_mode(node);
951         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
952         ir_node  *nomem   = new_NoMem();
953         ir_node  *expr_op, *imm_op;
954
955         /* Check if immediate optimization is on and */
956         /* if it's an operation with immediate.      */
957         imm_op  = (env_cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_op2) : NULL;
958         expr_op = get_expr_op(new_op1, new_op2);
959
960         assert((expr_op || imm_op) && "invalid operands");
961
962         if (mode_is_float(mode)) {
963                 if (USE_SSE2(env_cg))
964                         return gen_binop_sse_float(node, op1, op2, new_rd_ia32_xSub);
965                 else
966                         return gen_binop_x87_float(node, op1, op2, new_rd_ia32_vfsub);
967         }
968
969         /* integer SUB */
970         if (! expr_op) {
971                 ia32_immop_type_t tp1 = get_ia32_immop_type(new_op1);
972                 ia32_immop_type_t tp2 = get_ia32_immop_type(new_op2);
973
974                 /* No expr_op means, that we have two const - one symconst and */
975                 /* one tarval or another symconst - because this case is not   */
976                 /* covered by constant folding                                 */
977                 /* We need to check for:                                       */
978                 /*  1) symconst - const    -> becomes a LEA                    */
979                 /*  2) symconst - symconst -> becomes a const - LEA as the elf */
980                 /*        linker doesn't support two symconsts                 */
981                 if (tp1 == ia32_ImmSymConst && tp2 == ia32_ImmSymConst) {
982                         /* this is the 2nd case */
983                         new_op = new_rd_ia32_Lea(dbgi, irg, block, new_op1, noreg);
984                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(op2));
985                         set_ia32_am_sc_sign(new_op);
986                         set_ia32_am_flavour(new_op, ia32_am_B);
987
988                         DBG_OPT_LEA3(op1, op2, node, new_op);
989                 } else if (tp1 == ia32_ImmSymConst) {
990                         tarval *tv = get_ia32_Immop_tarval(new_op2);
991                         long offs = get_tarval_long(tv);
992
993                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
994                         add_irn_dep(new_op, get_irg_frame(irg));
995                         DBG_OPT_LEA3(op1, op2, node, new_op);
996
997                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op1));
998                         add_ia32_am_offs_int(new_op, -offs);
999                         set_ia32_am_flavour(new_op, ia32_am_OB);
1000                         set_ia32_op_type(new_op, ia32_AddrModeS);
1001                 } else if (tp2 == ia32_ImmSymConst) {
1002                         tarval *tv = get_ia32_Immop_tarval(new_op1);
1003                         long offs = get_tarval_long(tv);
1004
1005                         new_op = new_rd_ia32_Lea(dbgi, irg, block, noreg, noreg);
1006                         add_irn_dep(new_op, get_irg_frame(irg));
1007                         DBG_OPT_LEA3(op1, op2, node, new_op);
1008
1009                         add_ia32_am_offs_int(new_op, offs);
1010                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_op2));
1011                         set_ia32_am_sc_sign(new_op);
1012                         set_ia32_am_flavour(new_op, ia32_am_OB);
1013                         set_ia32_op_type(new_op, ia32_AddrModeS);
1014                 } else {
1015                         tarval *tv1 = get_ia32_Immop_tarval(new_op1);
1016                         tarval *tv2 = get_ia32_Immop_tarval(new_op2);
1017                         tarval *restv = tarval_sub(tv1, tv2);
1018
1019                         DEBUG_ONLY(ir_fprintf(stderr, "Warning: sub with 2 consts not folded: %+F\n", node));
1020
1021                         new_op = new_rd_ia32_Const(dbgi, irg, block);
1022                         set_ia32_Const_tarval(new_op, restv);
1023                         DBG_OPT_LEA3(new_op1, new_op2, node, new_op);
1024                 }
1025
1026                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
1027                 return new_op;
1028         } else if (imm_op) {
1029                 if ((env_cg->opt & IA32_OPT_INCDEC) && get_ia32_immop_type(imm_op) == ia32_ImmConst) {
1030                         tarval_classification_t class_tv, class_negtv;
1031                         tarval *tv = get_ia32_Immop_tarval(imm_op);
1032
1033                         /* optimize tarvals */
1034                         class_tv    = classify_tarval(tv);
1035                         class_negtv = classify_tarval(tarval_neg(tv));
1036
1037                         if (class_tv == TV_CLASSIFY_ONE) {
1038                                 DB((dbg, LEVEL_2, "Sub(1) to Dec ... "));
1039                                 new_op     = new_rd_ia32_Dec(dbgi, irg, block, noreg, noreg, expr_op, nomem);
1040                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
1041                                 return new_op;
1042                         } else if (class_tv == TV_CLASSIFY_ALL_ONE || class_negtv == TV_CLASSIFY_ONE) {
1043                                 DB((dbg, LEVEL_2, "Sub(-1) to Inc ... "));
1044                                 new_op     = new_rd_ia32_Inc(dbgi, irg, block, noreg, noreg, expr_op, nomem);
1045                                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
1046                                 return new_op;
1047                         }
1048                 }
1049         }
1050
1051         /* This is a normal sub */
1052         new_op = new_rd_ia32_Sub(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1053
1054         /* set AM support */
1055         set_ia32_am_support(new_op, ia32_am_Full, ia32_am_binary);
1056
1057         fold_immediate(new_op, 2, 3);
1058
1059         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
1060
1061         return new_op;
1062 }
1063
1064
1065
1066 /**
1067  * Generates an ia32 DivMod with additional infrastructure for the
1068  * register allocator if needed.
1069  *
1070  * @param dividend -no comment- :)
1071  * @param divisor  -no comment- :)
1072  * @param dm_flav  flavour_Div/Mod/DivMod
1073  * @return The created ia32 DivMod node
1074  */
1075 static ir_node *generate_DivMod(ir_node *node, ir_node *dividend,
1076                                 ir_node *divisor, ia32_op_flavour_t dm_flav)
1077 {
1078         ir_node  *block        = be_transform_node(get_nodes_block(node));
1079         ir_node  *new_dividend = be_transform_node(dividend);
1080         ir_node  *new_divisor  = be_transform_node(divisor);
1081         ir_graph *irg          = current_ir_graph;
1082         dbg_info *dbgi         = get_irn_dbg_info(node);
1083         ir_mode  *mode         = get_irn_mode(node);
1084         ir_node  *noreg        = ia32_new_NoReg_gp(env_cg);
1085         ir_node  *res, *proj_div, *proj_mod;
1086         ir_node  *sign_extension;
1087         ir_node  *mem, *new_mem;
1088         ir_node  *projs[pn_DivMod_max];
1089         int       has_exc;
1090
1091         ia32_collect_Projs(node, projs, pn_DivMod_max);
1092
1093         proj_div = proj_mod = NULL;
1094         has_exc  = 0;
1095         switch (dm_flav) {
1096                 case flavour_Div:
1097                         mem  = get_Div_mem(node);
1098                         mode = get_Div_resmode(node);
1099                         proj_div = be_get_Proj_for_pn(node, pn_Div_res);
1100                         has_exc  = be_get_Proj_for_pn(node, pn_Div_X_except) != NULL;
1101                         break;
1102                 case flavour_Mod:
1103                         mem  = get_Mod_mem(node);
1104                         mode = get_Mod_resmode(node);
1105                         proj_mod = be_get_Proj_for_pn(node, pn_Mod_res);
1106                         has_exc  = be_get_Proj_for_pn(node, pn_Mod_X_except) != NULL;
1107                         break;
1108                 case flavour_DivMod:
1109                         mem  = get_DivMod_mem(node);
1110                         mode = get_DivMod_resmode(node);
1111                         proj_div = be_get_Proj_for_pn(node, pn_DivMod_res_div);
1112                         proj_mod = be_get_Proj_for_pn(node, pn_DivMod_res_mod);
1113                         has_exc  = be_get_Proj_for_pn(node, pn_DivMod_X_except) != NULL;
1114                         break;
1115                 default:
1116                         panic("invalid divmod flavour!");
1117         }
1118         new_mem = be_transform_node(mem);
1119
1120         if (mode_is_signed(mode)) {
1121                 /* in signed mode, we need to sign extend the dividend */
1122                 ir_node *produceval = new_rd_ia32_ProduceVal(dbgi, irg, block);
1123                 add_irn_dep(produceval, get_irg_frame(irg));
1124                 sign_extension      = new_rd_ia32_Cltd(dbgi, irg, block, new_dividend,
1125                                                        produceval);
1126         } else {
1127                 sign_extension = new_rd_ia32_Const(dbgi, irg, block);
1128                 set_ia32_Immop_tarval(sign_extension, get_tarval_null(mode_Iu));
1129
1130                 add_irn_dep(sign_extension, get_irg_frame(irg));
1131         }
1132
1133         if (mode_is_signed(mode)) {
1134                 res = new_rd_ia32_IDiv(dbgi, irg, block, noreg, noreg, new_dividend,
1135                                        sign_extension, new_divisor, new_mem, dm_flav);
1136         } else {
1137                 res = new_rd_ia32_Div(dbgi, irg, block, noreg, noreg, new_dividend,
1138                                       sign_extension, new_divisor, new_mem, dm_flav);
1139         }
1140
1141         set_ia32_exc_label(res, has_exc);
1142         set_irn_pinned(res, get_irn_pinned(node));
1143         set_ia32_am_support(res, ia32_am_Source, ia32_am_binary);
1144
1145         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1146
1147         return res;
1148 }
1149
1150
1151 /**
1152  * Wrapper for generate_DivMod. Sets flavour_Mod.
1153  *
1154  */
1155 static ir_node *gen_Mod(ir_node *node) {
1156         return generate_DivMod(node, get_Mod_left(node),
1157                                get_Mod_right(node), flavour_Mod);
1158 }
1159
1160 /**
1161  * Wrapper for generate_DivMod. Sets flavour_Div.
1162  *
1163  */
1164 static ir_node *gen_Div(ir_node *node) {
1165         return generate_DivMod(node, get_Div_left(node),
1166                                get_Div_right(node), flavour_Div);
1167 }
1168
1169 /**
1170  * Wrapper for generate_DivMod. Sets flavour_DivMod.
1171  */
1172 static ir_node *gen_DivMod(ir_node *node) {
1173         return generate_DivMod(node, get_DivMod_left(node),
1174                                get_DivMod_right(node), flavour_DivMod);
1175 }
1176
1177
1178
1179 /**
1180  * Creates an ia32 floating Div.
1181  *
1182  * @return The created ia32 xDiv node
1183  */
1184 static ir_node *gen_Quot(ir_node *node) {
1185         ir_node  *block   = be_transform_node(get_nodes_block(node));
1186         ir_node  *op1     = get_Quot_left(node);
1187         ir_node  *new_op1 = be_transform_node(op1);
1188         ir_node  *op2     = get_Quot_right(node);
1189         ir_node  *new_op2 = be_transform_node(op2);
1190         ir_graph *irg     = current_ir_graph;
1191         dbg_info *dbgi    = get_irn_dbg_info(node);
1192         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
1193         ir_node  *nomem   = new_rd_NoMem(current_ir_graph);
1194         ir_node  *new_op;
1195
1196         if (USE_SSE2(env_cg)) {
1197                 ir_mode *mode = get_irn_mode(op1);
1198                 if (is_ia32_xConst(new_op2)) {
1199                         new_op = new_rd_ia32_xDiv(dbgi, irg, block, noreg, noreg, new_op1, noreg, nomem);
1200                         set_ia32_am_support(new_op, ia32_am_None, ia32_am_arity_none);
1201                         copy_ia32_Immop_attr(new_op, new_op2);
1202                 } else {
1203                         new_op = new_rd_ia32_xDiv(dbgi, irg, block, noreg, noreg, new_op1, new_op2, nomem);
1204                         // Matze: disabled for now, spillslot coalescer fails
1205                         set_ia32_am_support(new_op, ia32_am_Source, ia32_am_binary);
1206                 }
1207                 set_ia32_ls_mode(new_op, mode);
1208         } else {
1209                 new_op = new_rd_ia32_vfdiv(dbgi, irg, block, noreg, noreg, new_op1,
1210                                            new_op2, nomem, get_fpcw());
1211                 // Matze: disabled for now (spillslot coalescer fails)
1212                 set_ia32_am_support(new_op, ia32_am_Source, ia32_am_binary);
1213         }
1214         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
1215         return new_op;
1216 }
1217
1218
1219 /**
1220  * Creates an ia32 Shl.
1221  *
1222  * @return The created ia32 Shl node
1223  */
1224 static ir_node *gen_Shl(ir_node *node) {
1225         return gen_shift_binop(node, get_Shl_left(node), get_Shl_right(node),
1226                                new_rd_ia32_Shl);
1227 }
1228
1229
1230
1231 /**
1232  * Creates an ia32 Shr.
1233  *
1234  * @return The created ia32 Shr node
1235  */
1236 static ir_node *gen_Shr(ir_node *node) {
1237         return gen_shift_binop(node, get_Shr_left(node),
1238                                get_Shr_right(node), new_rd_ia32_Shr);
1239 }
1240
1241
1242
1243 /**
1244  * Creates an ia32 Sar.
1245  *
1246  * @return The created ia32 Shrs node
1247  */
1248 static ir_node *gen_Shrs(ir_node *node) {
1249         ir_node *left  = get_Shrs_left(node);
1250         ir_node *right = get_Shrs_right(node);
1251         ir_mode *mode  = get_irn_mode(node);
1252         if(is_Const(right) && mode == mode_Is) {
1253                 tarval *tv = get_Const_tarval(right);
1254                 long val = get_tarval_long(tv);
1255                 if(val == 31) {
1256                         /* this is a sign extension */
1257                         ir_graph *irg    = current_ir_graph;
1258                         dbg_info *dbgi   = get_irn_dbg_info(node);
1259                         ir_node  *block  = be_transform_node(get_nodes_block(node));
1260                         ir_node  *op     = left;
1261                         ir_node  *new_op = be_transform_node(op);
1262                         ir_node  *pval   = new_rd_ia32_ProduceVal(dbgi, irg, block);
1263                         add_irn_dep(pval, get_irg_frame(irg));
1264
1265                         return new_rd_ia32_Cltd(dbgi, irg, block, new_op, pval);
1266                 }
1267         }
1268 #if 1
1269         /* 8 or 16 bit sign extension? */
1270         if(is_Const(right) && is_Shl(left) && mode == mode_Is) {
1271                 ir_node *shl_left  = get_Shl_left(left);
1272                 ir_node *shl_right = get_Shl_right(left);
1273                 if(is_Const(shl_right)) {
1274                         tarval *tv1 = get_Const_tarval(right);
1275                         tarval *tv2 = get_Const_tarval(shl_right);
1276                         if(tv1 == tv2 && tarval_is_long(tv1)) {
1277                                 long val = get_tarval_long(tv1);
1278                                 if(val == 16 || val == 24) {
1279                                         dbg_info *dbgi   = get_irn_dbg_info(node);
1280                                         ir_node  *block  = be_transform_node(get_nodes_block(node));
1281                                         ir_node  *new_op = be_transform_node(shl_left);
1282                                         ir_mode  *src_mode;
1283                                         ir_node  *res;
1284
1285                                         if(val == 24) {
1286                                                 src_mode = mode_Bs;
1287                                         } else {
1288                                                 assert(val == 16);
1289                                                 src_mode = mode_Hs;
1290                                         }
1291                                         res = create_I2I_Conv(src_mode, mode_Is, dbgi, block,
1292                                                               new_op);
1293                                         SET_IA32_ORIG_NODE(res,
1294                                                            ia32_get_old_node_name(env_cg, node));
1295
1296                                         return res;
1297                                 }
1298                         }
1299                 }
1300         }
1301 #endif
1302
1303         return gen_shift_binop(node, left, right, new_rd_ia32_Sar);
1304 }
1305
1306
1307
1308 /**
1309  * Creates an ia32 RotL.
1310  *
1311  * @param op1   The first operator
1312  * @param op2   The second operator
1313  * @return The created ia32 RotL node
1314  */
1315 static ir_node *gen_RotL(ir_node *node,
1316                          ir_node *op1, ir_node *op2) {
1317         return gen_shift_binop(node, op1, op2, new_rd_ia32_Rol);
1318 }
1319
1320
1321
1322 /**
1323  * Creates an ia32 RotR.
1324  * NOTE: There is no RotR with immediate because this would always be a RotL
1325  *       "imm-mode_size_bits" which can be pre-calculated.
1326  *
1327  * @param op1   The first operator
1328  * @param op2   The second operator
1329  * @return The created ia32 RotR node
1330  */
1331 static ir_node *gen_RotR(ir_node *node, ir_node *op1,
1332                          ir_node *op2) {
1333         return gen_shift_binop(node, op1, op2, new_rd_ia32_Ror);
1334 }
1335
1336
1337
1338 /**
1339  * Creates an ia32 RotR or RotL (depending on the found pattern).
1340  *
1341  * @return The created ia32 RotL or RotR node
1342  */
1343 static ir_node *gen_Rot(ir_node *node) {
1344         ir_node *rotate = NULL;
1345         ir_node *op1    = get_Rot_left(node);
1346         ir_node *op2    = get_Rot_right(node);
1347
1348         /* Firm has only Rot (which is a RotL), so we are looking for a right (op2)
1349                  operand "-e+mode_size_bits" (it's an already modified "mode_size_bits-e",
1350                  that means we can create a RotR instead of an Add and a RotL */
1351
1352         if (get_irn_op(op2) == op_Add) {
1353                 ir_node *add = op2;
1354                 ir_node *left = get_Add_left(add);
1355                 ir_node *right = get_Add_right(add);
1356                 if (is_Const(right)) {
1357                         tarval  *tv   = get_Const_tarval(right);
1358                         ir_mode *mode = get_irn_mode(node);
1359                         long     bits = get_mode_size_bits(mode);
1360
1361                         if (get_irn_op(left) == op_Minus &&
1362                                         tarval_is_long(tv)       &&
1363                                         get_tarval_long(tv) == bits)
1364                         {
1365                                 DB((dbg, LEVEL_1, "RotL into RotR ... "));
1366                                 rotate = gen_RotR(node, op1, get_Minus_op(left));
1367                         }
1368                 }
1369         }
1370
1371         if (rotate == NULL) {
1372                 rotate = gen_RotL(node, op1, op2);
1373         }
1374
1375         return rotate;
1376 }
1377
1378
1379
1380 /**
1381  * Transforms a Minus node.
1382  *
1383  * @param op    The Minus operand
1384  * @return The created ia32 Minus node
1385  */
1386 ir_node *gen_Minus_ex(ir_node *node, ir_node *op) {
1387         ir_node   *block = be_transform_node(get_nodes_block(node));
1388         ir_graph  *irg   = current_ir_graph;
1389         dbg_info  *dbgi  = get_irn_dbg_info(node);
1390         ir_mode   *mode  = get_irn_mode(node);
1391         ir_entity *ent;
1392         ir_node   *res;
1393         int       size;
1394
1395         if (mode_is_float(mode)) {
1396                 ir_node *new_op = be_transform_node(op);
1397                 if (USE_SSE2(env_cg)) {
1398                         ir_node *noreg_gp = ia32_new_NoReg_gp(env_cg);
1399                         ir_node *noreg_fp = ia32_new_NoReg_fp(env_cg);
1400                         ir_node *nomem    = new_rd_NoMem(irg);
1401
1402                         res = new_rd_ia32_xXor(dbgi, irg, block, noreg_gp, noreg_gp, new_op, noreg_fp, nomem);
1403
1404                         size = get_mode_size_bits(mode);
1405                         ent  = ia32_gen_fp_known_const(size == 32 ? ia32_SSIGN : ia32_DSIGN);
1406
1407                         set_ia32_am_sc(res, ent);
1408                         set_ia32_op_type(res, ia32_AddrModeS);
1409                         set_ia32_ls_mode(res, mode);
1410                 } else {
1411                         res = new_rd_ia32_vfchs(dbgi, irg, block, new_op);
1412                 }
1413         } else {
1414                 res = gen_unop(node, op, new_rd_ia32_Neg);
1415         }
1416
1417         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1418
1419         return res;
1420 }
1421
1422 /**
1423  * Transforms a Minus node.
1424  *
1425  * @return The created ia32 Minus node
1426  */
1427 static ir_node *gen_Minus(ir_node *node) {
1428         return gen_Minus_ex(node, get_Minus_op(node));
1429 }
1430
1431 static ir_node *gen_bin_Not(ir_node *node)
1432 {
1433         ir_graph *irg    = current_ir_graph;
1434         dbg_info *dbgi   = get_irn_dbg_info(node);
1435         ir_node  *block  = be_transform_node(get_nodes_block(node));
1436         ir_node  *op     = get_Not_op(node);
1437         ir_node  *new_op = be_transform_node(op);
1438         ir_node  *noreg  = ia32_new_NoReg_gp(env_cg);
1439         ir_node  *nomem  = new_NoMem();
1440         ir_node  *one    = new_rd_ia32_Immediate(dbgi, irg, block, NULL, 0, 1);
1441         arch_set_irn_register(env_cg->arch_env, one, &ia32_gp_regs[REG_GP_NOREG]);
1442
1443         return new_rd_ia32_Xor(dbgi, irg, block, noreg, noreg, new_op, one, nomem);
1444 }
1445
1446 /**
1447  * Transforms a Not node.
1448  *
1449  * @return The created ia32 Not node
1450  */
1451 static ir_node *gen_Not(ir_node *node) {
1452         ir_node *op   = get_Not_op(node);
1453         ir_mode *mode = get_irn_mode(node);
1454
1455         if(mode == mode_b) {
1456                 return gen_bin_Not(node);
1457         }
1458
1459         assert (! mode_is_float(get_irn_mode(node)));
1460         return gen_unop(node, op, new_rd_ia32_Not);
1461 }
1462
1463
1464
1465 /**
1466  * Transforms an Abs node.
1467  *
1468  * @return The created ia32 Abs node
1469  */
1470 static ir_node *gen_Abs(ir_node *node) {
1471         ir_node   *block    = be_transform_node(get_nodes_block(node));
1472         ir_node   *op       = get_Abs_op(node);
1473         ir_node   *new_op   = be_transform_node(op);
1474         ir_graph  *irg      = current_ir_graph;
1475         dbg_info  *dbgi     = get_irn_dbg_info(node);
1476         ir_mode   *mode     = get_irn_mode(node);
1477         ir_node   *noreg_gp = ia32_new_NoReg_gp(env_cg);
1478         ir_node   *noreg_fp = ia32_new_NoReg_fp(env_cg);
1479         ir_node   *nomem    = new_NoMem();
1480         ir_node   *res;
1481         int       size;
1482         ir_entity *ent;
1483
1484         if (mode_is_float(mode)) {
1485                 if (USE_SSE2(env_cg)) {
1486                         res = new_rd_ia32_xAnd(dbgi,irg, block, noreg_gp, noreg_gp, new_op, noreg_fp, nomem);
1487
1488                         size = get_mode_size_bits(mode);
1489                         ent  = ia32_gen_fp_known_const(size == 32 ? ia32_SABS : ia32_DABS);
1490
1491                         set_ia32_am_sc(res, ent);
1492
1493                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1494
1495                         set_ia32_op_type(res, ia32_AddrModeS);
1496                         set_ia32_ls_mode(res, mode);
1497                 }
1498                 else {
1499                         res = new_rd_ia32_vfabs(dbgi, irg, block, new_op);
1500                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1501                 }
1502         } else {
1503                 ir_node *xor;
1504                 ir_node *pval           = new_rd_ia32_ProduceVal(dbgi, irg, block);
1505                 ir_node *sign_extension = new_rd_ia32_Cltd(dbgi, irg, block, new_op,
1506                                                            pval);
1507
1508                 add_irn_dep(pval, get_irg_frame(irg));
1509                 SET_IA32_ORIG_NODE(sign_extension,
1510                                    ia32_get_old_node_name(env_cg, node));
1511
1512                 xor = new_rd_ia32_Xor(dbgi, irg, block, noreg_gp, noreg_gp, new_op,
1513                                       sign_extension, nomem);
1514                 SET_IA32_ORIG_NODE(xor, ia32_get_old_node_name(env_cg, node));
1515
1516                 res = new_rd_ia32_Sub(dbgi, irg, block, noreg_gp, noreg_gp, xor,
1517                                       sign_extension, nomem);
1518                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1519         }
1520
1521         return res;
1522 }
1523
1524
1525
1526 /**
1527  * Transforms a Load.
1528  *
1529  * @return the created ia32 Load node
1530  */
1531 static ir_node *gen_Load(ir_node *node) {
1532         ir_node *old_block = get_nodes_block(node);
1533         ir_node  *block   = be_transform_node(old_block);
1534         ir_node  *ptr     = get_Load_ptr(node);
1535         ir_node  *new_ptr = be_transform_node(ptr);
1536         ir_node  *mem     = get_Load_mem(node);
1537         ir_node  *new_mem = be_transform_node(mem);
1538         ir_graph *irg     = current_ir_graph;
1539         dbg_info *dbgi    = get_irn_dbg_info(node);
1540         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
1541         ir_mode  *mode    = get_Load_mode(node);
1542         ir_mode  *res_mode;
1543         ir_node  *lptr    = new_ptr;
1544         int      is_imm   = 0;
1545         ir_node  *new_op;
1546         ia32_am_flavour_t am_flav = ia32_am_B;
1547
1548         /* address might be a constant (symconst or absolute address) */
1549         if (is_ia32_Const(new_ptr)) {
1550                 lptr   = noreg;
1551                 is_imm = 1;
1552         }
1553
1554         if (mode_is_float(mode)) {
1555                 if (USE_SSE2(env_cg)) {
1556                         new_op  = new_rd_ia32_xLoad(dbgi, irg, block, lptr, noreg, new_mem);
1557                         res_mode = mode_xmm;
1558                 } else {
1559                         new_op   = new_rd_ia32_vfld(dbgi, irg, block, lptr, noreg, new_mem, mode);
1560                         res_mode = mode_vfp;
1561                 }
1562         } else {
1563                 if(mode == mode_b)
1564                         mode = mode_Iu;
1565
1566                 /* create a conv node with address mode for smaller modes */
1567                 if(get_mode_size_bits(mode) < 32) {
1568                         new_op = new_rd_ia32_Conv_I2I(dbgi, irg, block, lptr, noreg, noreg,
1569                                                       new_mem, mode);
1570                 } else {
1571                         new_op = new_rd_ia32_Load(dbgi, irg, block, lptr, noreg, new_mem);
1572                 }
1573                 res_mode = mode_Iu;
1574         }
1575
1576         /* base is a constant address */
1577         if (is_imm) {
1578                 if (get_ia32_immop_type(new_ptr) == ia32_ImmSymConst) {
1579                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_ptr));
1580                         am_flav = ia32_am_N;
1581                 } else {
1582                         tarval *tv = get_ia32_Immop_tarval(new_ptr);
1583                         long offs = get_tarval_long(tv);
1584
1585                         add_ia32_am_offs_int(new_op, offs);
1586                         am_flav = ia32_am_O;
1587                 }
1588         }
1589
1590         set_irn_pinned(new_op, get_irn_pinned(node));
1591         set_ia32_op_type(new_op, ia32_AddrModeS);
1592         set_ia32_am_flavour(new_op, am_flav);
1593         set_ia32_ls_mode(new_op, mode);
1594
1595         /* make sure we are scheduled behind the initial IncSP/Barrier
1596          * to avoid spills being placed before it
1597          */
1598         if (block == get_irg_start_block(irg)) {
1599                 add_irn_dep(new_op, get_irg_frame(irg));
1600         }
1601
1602         set_ia32_exc_label(new_op, be_get_Proj_for_pn(node, pn_Load_X_except) != NULL);
1603         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
1604
1605         return new_op;
1606 }
1607
1608
1609
1610 /**
1611  * Transforms a Store.
1612  *
1613  * @return the created ia32 Store node
1614  */
1615 static ir_node *gen_Store(ir_node *node) {
1616         ir_node  *block   = be_transform_node(get_nodes_block(node));
1617         ir_node  *ptr     = get_Store_ptr(node);
1618         ir_node  *new_ptr = be_transform_node(ptr);
1619         ir_node  *val     = get_Store_value(node);
1620         ir_node  *new_val;
1621         ir_node  *mem     = get_Store_mem(node);
1622         ir_node  *new_mem = be_transform_node(mem);
1623         ir_graph *irg     = current_ir_graph;
1624         dbg_info *dbgi    = get_irn_dbg_info(node);
1625         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
1626         ir_node  *sptr    = new_ptr;
1627         ir_mode  *mode    = get_irn_mode(val);
1628         int      is_imm   = 0;
1629         ir_node  *new_op;
1630         ia32_am_flavour_t am_flav = ia32_am_B;
1631
1632         /* address might be a constant (symconst or absolute address) */
1633         if (is_ia32_Const(new_ptr)) {
1634                 sptr   = noreg;
1635                 is_imm = 1;
1636         }
1637
1638         if (mode_is_float(mode)) {
1639                 new_val = be_transform_node(val);
1640                 if (USE_SSE2(env_cg)) {
1641                         new_op = new_rd_ia32_xStore(dbgi, irg, block, sptr, noreg, new_val,
1642                                                     new_mem);
1643                 } else {
1644                         new_op = new_rd_ia32_vfst(dbgi, irg, block, sptr, noreg, new_val,
1645                                                   new_mem, mode);
1646                 }
1647         } else {
1648                 new_val = create_immediate_or_transform(val, 0);
1649                 if(mode == mode_b)
1650                         mode = mode_Iu;
1651
1652                 if (get_mode_size_bits(mode) == 8) {
1653                         new_op = new_rd_ia32_Store8Bit(dbgi, irg, block, sptr, noreg,
1654                                                        new_val, new_mem);
1655                 } else {
1656                         new_op = new_rd_ia32_Store(dbgi, irg, block, sptr, noreg, new_val,
1657                                                    new_mem);
1658                 }
1659         }
1660
1661         /* base is an constant address */
1662         if (is_imm) {
1663                 if (get_ia32_immop_type(new_ptr) == ia32_ImmSymConst) {
1664                         set_ia32_am_sc(new_op, get_ia32_Immop_symconst(new_ptr));
1665                         am_flav = ia32_am_N;
1666                 } else {
1667                         tarval *tv = get_ia32_Immop_tarval(new_ptr);
1668                         long offs = get_tarval_long(tv);
1669
1670                         add_ia32_am_offs_int(new_op, offs);
1671                         am_flav = ia32_am_O;
1672                 }
1673         }
1674
1675         set_irn_pinned(new_op, get_irn_pinned(node));
1676         set_ia32_op_type(new_op, ia32_AddrModeD);
1677         set_ia32_am_flavour(new_op, am_flav);
1678         set_ia32_ls_mode(new_op, mode);
1679
1680         set_ia32_exc_label(new_op, be_get_Proj_for_pn(node, pn_Store_X_except) != NULL);
1681         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
1682
1683         return new_op;
1684 }
1685
1686 static ir_node *maybe_scale_up(ir_node *new_op, ir_mode *mode, dbg_info *dbgi)
1687 {
1688         ir_mode *tgt_mode;
1689         ir_node *block;
1690
1691         if(get_mode_size_bits(mode) == 32)
1692                 return new_op;
1693         if(mode == mode_b)
1694                 return new_op;
1695         if(is_ia32_Immediate(new_op))
1696                 return new_op;
1697
1698         if(mode_is_signed(mode))
1699                 tgt_mode = mode_Is;
1700         else
1701                 tgt_mode = mode_Iu;
1702
1703         block = get_nodes_block(new_op);
1704         return create_I2I_Conv(mode, tgt_mode, dbgi, block, new_op);
1705 }
1706
1707 static ir_node *try_create_TestJmp(ir_node *block, dbg_info *dbgi, long pnc,
1708                                    ir_node *cmp_left, ir_node *cmp_right)
1709 {
1710         ir_node  *new_cmp_left;
1711         ir_node  *new_cmp_right;
1712         ir_node  *and_left;
1713         ir_node  *and_right;
1714         ir_node  *res;
1715         ir_node  *noreg;
1716         ir_node  *nomem;
1717         ir_mode  *mode;
1718         long      pure_pnc = pnc & ~ia32_pn_Cmp_Unsigned;
1719
1720         if(cmp_right != NULL && !is_Const_0(cmp_right))
1721                 return NULL;
1722
1723         if(is_And(cmp_left) && (pure_pnc == pn_Cmp_Eq || pure_pnc == pn_Cmp_Lg)) {
1724                 and_left  = get_And_left(cmp_left);
1725                 and_right = get_And_right(cmp_left);
1726
1727                 mode          = get_irn_mode(and_left);
1728                 new_cmp_left  = be_transform_node(and_left);
1729                 new_cmp_right = create_immediate_or_transform(and_right, 0);
1730         } else {
1731                 mode          = get_irn_mode(cmp_left);
1732                 new_cmp_left  = be_transform_node(cmp_left);
1733                 new_cmp_right = be_transform_node(cmp_left);
1734         }
1735
1736         assert(get_mode_size_bits(mode) <= 32);
1737         new_cmp_left  = maybe_scale_up(new_cmp_left, mode, dbgi);
1738         new_cmp_right = maybe_scale_up(new_cmp_right, mode, dbgi);
1739         noreg         = ia32_new_NoReg_gp(env_cg);
1740         nomem         = new_NoMem();
1741
1742         res = new_rd_ia32_TestJmp(dbgi, current_ir_graph, block, noreg, noreg,
1743                                   new_cmp_left, new_cmp_right, nomem, pnc);
1744         set_ia32_am_support(res, ia32_am_Source, ia32_am_binary);
1745
1746         return res;
1747 }
1748
1749 static ir_node *create_Switch(ir_node *node)
1750 {
1751         ir_graph *irg     = current_ir_graph;
1752         dbg_info *dbgi    = get_irn_dbg_info(node);
1753         ir_node  *block   = be_transform_node(get_nodes_block(node));
1754         ir_node  *sel     = get_Cond_selector(node);
1755         ir_node  *new_sel = be_transform_node(sel);
1756         ir_node  *res;
1757         int switch_min    = INT_MAX;
1758         const ir_edge_t *edge;
1759
1760         assert(get_mode_size_bits(get_irn_mode(sel)) == 32);
1761
1762         /* determine the smallest switch case value */
1763         foreach_out_edge(node, edge) {
1764                 ir_node *proj = get_edge_src_irn(edge);
1765                 int      pn   = get_Proj_proj(proj);
1766                 if(pn < switch_min)
1767                         switch_min = pn;
1768         }
1769
1770         if (switch_min != 0) {
1771                 ir_node  *noreg    = ia32_new_NoReg_gp(env_cg);
1772
1773                 /* if smallest switch case is not 0 we need an additional sub */
1774                 new_sel = new_rd_ia32_Lea(dbgi, irg, block, new_sel, noreg);
1775                 add_ia32_am_offs_int(new_sel, -switch_min);
1776                 set_ia32_am_flavour(new_sel, ia32_am_OB);
1777                 set_ia32_op_type(new_sel, ia32_AddrModeS);
1778
1779                 SET_IA32_ORIG_NODE(new_sel, ia32_get_old_node_name(env_cg, node));
1780         }
1781
1782         res = new_rd_ia32_SwitchJmp(dbgi, irg, block, new_sel);
1783         set_ia32_pncode(res, get_Cond_defaultProj(node));
1784
1785         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1786
1787         return res;
1788 }
1789
1790 /**
1791  * Transforms a Cond -> Proj[b] -> Cmp into a CondJmp, CondJmp_i or TestJmp
1792  *
1793  * @return The transformed node.
1794  */
1795 static ir_node *gen_Cond(ir_node *node) {
1796         ir_node  *block    = be_transform_node(get_nodes_block(node));
1797         ir_graph *irg      = current_ir_graph;
1798         dbg_info *dbgi     = get_irn_dbg_info(node);
1799         ir_node  *sel      = get_Cond_selector(node);
1800         ir_mode  *sel_mode = get_irn_mode(sel);
1801         ir_node  *res      = NULL;
1802         ir_node  *noreg    = ia32_new_NoReg_gp(env_cg);
1803         ir_node  *cmp;
1804         ir_node  *cmp_a;
1805         ir_node  *cmp_b;
1806         ir_node  *new_cmp_a;
1807         ir_node  *new_cmp_b;
1808         ir_mode  *cmp_mode;
1809         ir_node  *nomem = new_NoMem();
1810         long      pnc;
1811
1812         if (sel_mode != mode_b) {
1813                 return create_Switch(node);
1814         }
1815
1816         if(!is_Proj(sel) || !is_Cmp(get_Proj_pred(sel))) {
1817                 /* it's some mode_b value but not a direct comparison -> create a
1818                  * testjmp */
1819                 res = try_create_TestJmp(block, dbgi, pn_Cmp_Lg, sel, NULL);
1820                 SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1821                 return res;
1822         }
1823
1824         cmp      = get_Proj_pred(sel);
1825         cmp_a    = get_Cmp_left(cmp);
1826         cmp_b    = get_Cmp_right(cmp);
1827         cmp_mode = get_irn_mode(cmp_a);
1828         pnc      = get_Proj_proj(sel);
1829         if(mode_is_float(cmp_mode) || !mode_is_signed(cmp_mode)) {
1830                 pnc |= ia32_pn_Cmp_Unsigned;
1831         }
1832
1833         if(mode_needs_gp_reg(cmp_mode)) {
1834                 res = try_create_TestJmp(block, dbgi, pnc, cmp_a, cmp_b);
1835                 if(res != NULL) {
1836                         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1837                         return res;
1838                 }
1839         }
1840
1841         new_cmp_a = be_transform_node(cmp_a);
1842         new_cmp_b = create_immediate_or_transform(cmp_b, 0);
1843
1844         if (mode_is_float(cmp_mode)) {
1845                 if (USE_SSE2(env_cg)) {
1846                         res = new_rd_ia32_xCondJmp(dbgi, irg, block, noreg, noreg, cmp_a,
1847                                                    cmp_b, nomem, pnc);
1848                         set_ia32_commutative(res);
1849                         set_ia32_am_support(res, ia32_am_Source, ia32_am_binary);
1850                         set_ia32_ls_mode(res, cmp_mode);
1851                 } else {
1852                         res = new_rd_ia32_vfCondJmp(dbgi, irg, block, cmp_a, cmp_b, pnc);
1853                         set_ia32_commutative(res);
1854                 }
1855         } else {
1856                 /** workaround smaller compare modes with converts...
1857                  * We could easily support 16bit compares, for 8 bit we have to set
1858                  * additional register constraints, which we don't do yet
1859                  */
1860                 new_cmp_a = maybe_scale_up(new_cmp_a, cmp_mode, dbgi);
1861                 new_cmp_b = maybe_scale_up(new_cmp_b, cmp_mode, dbgi);
1862
1863                 res = new_rd_ia32_CondJmp(dbgi, irg, block, noreg, noreg,
1864                                           new_cmp_a, new_cmp_b, nomem, pnc);
1865                 set_ia32_commutative(res);
1866                 set_ia32_am_support(res, ia32_am_Source, ia32_am_binary);
1867         }
1868
1869         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1870
1871         return res;
1872 }
1873
1874
1875
1876 /**
1877  * Transforms a CopyB node.
1878  *
1879  * @return The transformed node.
1880  */
1881 static ir_node *gen_CopyB(ir_node *node) {
1882         ir_node  *block    = be_transform_node(get_nodes_block(node));
1883         ir_node  *src      = get_CopyB_src(node);
1884         ir_node  *new_src  = be_transform_node(src);
1885         ir_node  *dst      = get_CopyB_dst(node);
1886         ir_node  *new_dst  = be_transform_node(dst);
1887         ir_node  *mem      = get_CopyB_mem(node);
1888         ir_node  *new_mem  = be_transform_node(mem);
1889         ir_node  *res      = NULL;
1890         ir_graph *irg      = current_ir_graph;
1891         dbg_info *dbgi     = get_irn_dbg_info(node);
1892         int      size      = get_type_size_bytes(get_CopyB_type(node));
1893         int      rem;
1894
1895         /* If we have to copy more than 32 bytes, we use REP MOVSx and */
1896         /* then we need the size explicitly in ECX.                    */
1897         if (size >= 32 * 4) {
1898                 rem = size & 0x3; /* size % 4 */
1899                 size >>= 2;
1900
1901                 res = new_rd_ia32_Const(dbgi, irg, block);
1902                 add_irn_dep(res, be_abi_get_start_barrier(env_cg->birg->abi));
1903                 set_ia32_Immop_tarval(res, new_tarval_from_long(size, mode_Is));
1904
1905                 res = new_rd_ia32_CopyB(dbgi, irg, block, new_dst, new_src, res, new_mem);
1906                 set_ia32_Immop_tarval(res, new_tarval_from_long(rem, mode_Is));
1907         } else {
1908                 res = new_rd_ia32_CopyB_i(dbgi, irg, block, new_dst, new_src, new_mem);
1909                 set_ia32_Immop_tarval(res, new_tarval_from_long(size, mode_Is));
1910         }
1911
1912         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
1913
1914         return res;
1915 }
1916
1917 static
1918 ir_node *gen_be_Copy(ir_node *node)
1919 {
1920         ir_node *result = be_duplicate_node(node);
1921         ir_mode *mode   = get_irn_mode(result);
1922
1923         if (mode_needs_gp_reg(mode)) {
1924                 set_irn_mode(result, mode_Iu);
1925         }
1926
1927         return result;
1928 }
1929
1930
1931 static ir_node *create_set(long pnc, ir_node *cmp_left, ir_node *cmp_right,
1932                            dbg_info *dbgi, ir_node *block)
1933 {
1934         ir_graph *irg   = current_ir_graph;
1935         ir_node  *noreg = ia32_new_NoReg_gp(env_cg);
1936         ir_node  *nomem = new_rd_NoMem(irg);
1937         ir_mode  *mode;
1938         ir_node  *new_cmp_left;
1939         ir_node  *new_cmp_right;
1940         ir_node  *res;
1941
1942         /* can we use a test instruction? */
1943         if(cmp_right == NULL || is_Const_0(cmp_right)) {
1944                 long pure_pnc = pnc & ~ia32_pn_Cmp_Unsigned;
1945                 if(is_And(cmp_left) &&
1946                                 (pure_pnc == pn_Cmp_Eq || pure_pnc == pn_Cmp_Lg)) {
1947                         ir_node *and_left  = get_And_left(cmp_left);
1948                         ir_node *and_right = get_And_right(cmp_left);
1949
1950                         mode          = get_irn_mode(and_left);
1951                         new_cmp_left  = be_transform_node(and_left);
1952                         new_cmp_right = create_immediate_or_transform(and_right, 0);
1953                 } else {
1954                         mode          = get_irn_mode(cmp_left);
1955                         new_cmp_left  = be_transform_node(cmp_left);
1956                         new_cmp_right = be_transform_node(cmp_left);
1957                 }
1958
1959                 assert(get_mode_size_bits(mode) <= 32);
1960                 new_cmp_left  = maybe_scale_up(new_cmp_left, mode, dbgi);
1961                 new_cmp_right = maybe_scale_up(new_cmp_right, mode, dbgi);
1962
1963                 res = new_rd_ia32_TestSet(dbgi, current_ir_graph, block, noreg, noreg,
1964                                           new_cmp_left, new_cmp_right, nomem, pnc);
1965                 set_ia32_am_support(res, ia32_am_Source, ia32_am_binary);
1966
1967                 return res;
1968         }
1969
1970         mode = get_irn_mode(cmp_left);
1971
1972         new_cmp_left  = be_transform_node(cmp_left);
1973         new_cmp_right = create_immediate_or_transform(cmp_right, 0);
1974
1975         assert(get_mode_size_bits(mode) <= 32);
1976         new_cmp_left  = maybe_scale_up(new_cmp_left, mode, dbgi);
1977         new_cmp_right = maybe_scale_up(new_cmp_right, mode, dbgi);
1978
1979         res           = new_rd_ia32_CmpSet(dbgi, irg, block, noreg, noreg,
1980                                            new_cmp_left, new_cmp_right, nomem, pnc);
1981
1982         return res;
1983 }
1984
1985 static ir_node *create_cmov(long pnc, ir_node *cmp_left, ir_node *cmp_right,
1986                             ir_node *val_true, ir_node *val_false,
1987                                                         dbg_info *dbgi, ir_node *block)
1988 {
1989         ir_graph *irg           = current_ir_graph;
1990         ir_node  *new_val_true  = be_transform_node(val_true);
1991         ir_node  *new_val_false = be_transform_node(val_false);
1992         ir_node  *noreg         = ia32_new_NoReg_gp(env_cg);
1993         ir_node  *nomem         = new_NoMem();
1994         ir_node  *new_cmp_left;
1995         ir_node  *new_cmp_right;
1996         ir_node  *res;
1997
1998         /* cmovs with unknowns are pointless... */
1999         if(is_Unknown(val_true)) {
2000 #ifdef DEBUG_libfirm
2001                 ir_fprintf(stderr, "Optimisation warning: psi with unknown operand\n");
2002 #endif
2003                 return new_val_false;
2004         }
2005         if(is_Unknown(val_false)) {
2006 #ifdef DEBUG_libfirm
2007                 ir_fprintf(stderr, "Optimisation warning: psi with unknown operand\n");
2008 #endif
2009                 return new_val_true;
2010         }
2011
2012         /* can we use a test instruction? */
2013         if(is_Const_0(cmp_right)) {
2014                 long pure_pnc = pnc & ~ia32_pn_Cmp_Unsigned;
2015                 if(is_And(cmp_left) &&
2016                                 (pure_pnc == pn_Cmp_Eq || pure_pnc == pn_Cmp_Lg)) {
2017                         ir_node *and_left  = get_And_left(cmp_left);
2018                         ir_node *and_right = get_And_right(cmp_left);
2019
2020                         new_cmp_left  = be_transform_node(and_left);
2021                         new_cmp_right = create_immediate_or_transform(and_right, 0);
2022                 } else {
2023                         new_cmp_left  = be_transform_node(cmp_left);
2024                         new_cmp_right = be_transform_node(cmp_left);
2025                 }
2026
2027                 res = new_rd_ia32_TestCMov(dbgi, current_ir_graph, block, noreg, noreg,
2028                                            new_cmp_left, new_cmp_right, nomem,
2029                                            new_val_true, new_val_false, pnc);
2030                 set_ia32_am_support(res, ia32_am_Source, ia32_am_binary);
2031
2032                 return res;
2033         }
2034
2035         new_cmp_left  = be_transform_node(cmp_left);
2036         new_cmp_right = create_immediate_or_transform(cmp_right, 0);
2037
2038         res = new_rd_ia32_CmpCMov(dbgi, irg, block, noreg, noreg, new_cmp_left,
2039                                   new_cmp_right, nomem, new_val_true, new_val_false,
2040                                   pnc);
2041         set_ia32_am_support(res, ia32_am_Source, ia32_am_binary);
2042
2043         return res;
2044 }
2045
2046
2047 /**
2048  * Transforms a Psi node into CMov.
2049  *
2050  * @return The transformed node.
2051  */
2052 static ir_node *gen_Psi(ir_node *node) {
2053         ir_node  *psi_true    = get_Psi_val(node, 0);
2054         ir_node  *psi_default = get_Psi_default(node);
2055         ia32_code_gen_t *cg   = env_cg;
2056         ir_node  *cond        = get_Psi_cond(node, 0);
2057         ir_node  *block       = be_transform_node(get_nodes_block(node));
2058         dbg_info *dbgi        = get_irn_dbg_info(node);
2059         ir_node  *new_op;
2060         ir_node  *cmp_left;
2061         ir_node  *cmp_right;
2062         ir_mode  *cmp_mode;
2063         long      pnc;
2064
2065         assert(get_Psi_n_conds(node) == 1);
2066         assert(get_irn_mode(cond) == mode_b);
2067
2068         if(!is_Proj(cond) || !is_Cmp(get_Proj_pred(cond))) {
2069                 /* a mode_b value, we have to compare it against 0 */
2070                 cmp_left  = cond;
2071                 cmp_right = new_Const_long(mode_Iu, 0);
2072                 pnc       = pn_Cmp_Lg;
2073                 cmp_mode  = mode_Iu;
2074         } else {
2075                 ir_node *cmp = get_Proj_pred(cond);
2076
2077                 cmp_left  = get_Cmp_left(cmp);
2078                 cmp_right = get_Cmp_right(cmp);
2079                 cmp_mode  = get_irn_mode(cmp_left);
2080                 pnc       = get_Proj_proj(cond);
2081
2082                 assert(!mode_is_float(cmp_mode));
2083
2084                 if (!mode_is_signed(cmp_mode)) {
2085                         pnc |= ia32_pn_Cmp_Unsigned;
2086                 }
2087         }
2088
2089         if(is_Const_1(psi_true) && is_Const_0(psi_default)) {
2090                 new_op = create_set(pnc, cmp_left, cmp_right, dbgi, block);
2091         } else if(is_Const_0(psi_true) && is_Const_1(psi_default)) {
2092                 pnc = get_negated_pnc(pnc, cmp_mode);
2093                 new_op = create_set(pnc, cmp_left, cmp_right, dbgi, block);
2094         } else {
2095                 new_op = create_cmov(pnc, cmp_left, cmp_right, psi_true, psi_default,
2096                                      dbgi, block);
2097         }
2098         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(cg, node));
2099         return new_op;
2100 }
2101
2102
2103 /**
2104  * Following conversion rules apply:
2105  *
2106  *  INT -> INT
2107  * ============
2108  *  1) n bit -> m bit   n > m (downscale)
2109  *     always ignored
2110  *  2) n bit -> m bit   n == m   (sign change)
2111  *     always ignored
2112  *  3) n bit -> m bit   n < m (upscale)
2113  *     a) source is signed:    movsx
2114  *     b) source is unsigned:  and with lower bits sets
2115  *
2116  *  INT -> FLOAT
2117  * ==============
2118  *  SSE(1/2) convert to float or double (cvtsi2ss/sd)
2119  *
2120  *  FLOAT -> INT
2121  * ==============
2122  *  SSE(1/2) convert from float or double to 32bit int (cvtss/sd2si)
2123  *
2124  *  FLOAT -> FLOAT
2125  * ================
2126  *  SSE(1/2) convert from float or double to double or float (cvtss/sd2sd/ss)
2127  *  x87 is mode_E internally, conversions happen only at load and store
2128  *  in non-strict semantic
2129  */
2130
2131 /**
2132  * Create a conversion from x87 state register to general purpose.
2133  */
2134 static ir_node *gen_x87_fp_to_gp(ir_node *node) {
2135         ir_node         *block      = be_transform_node(get_nodes_block(node));
2136         ir_node         *op         = get_Conv_op(node);
2137         ir_node         *new_op     = be_transform_node(op);
2138         ia32_code_gen_t *cg         = env_cg;
2139         ir_graph        *irg        = current_ir_graph;
2140         dbg_info        *dbgi       = get_irn_dbg_info(node);
2141         ir_node         *noreg      = ia32_new_NoReg_gp(cg);
2142         ir_node         *trunc_mode = ia32_new_Fpu_truncate(cg);
2143         ir_node         *fist, *load;
2144
2145         /* do a fist */
2146         fist = new_rd_ia32_vfist(dbgi, irg, block,
2147                         get_irg_frame(irg), noreg, new_op, trunc_mode, new_NoMem());
2148
2149         set_irn_pinned(fist, op_pin_state_floats);
2150         set_ia32_use_frame(fist);
2151         set_ia32_op_type(fist, ia32_AddrModeD);
2152         set_ia32_am_flavour(fist, ia32_am_B);
2153         set_ia32_ls_mode(fist, mode_Iu);
2154         SET_IA32_ORIG_NODE(fist, ia32_get_old_node_name(cg, node));
2155
2156         /* do a Load */
2157         load = new_rd_ia32_Load(dbgi, irg, block, get_irg_frame(irg), noreg, fist);
2158
2159         set_irn_pinned(load, op_pin_state_floats);
2160         set_ia32_use_frame(load);
2161         set_ia32_op_type(load, ia32_AddrModeS);
2162         set_ia32_am_flavour(load, ia32_am_B);
2163         set_ia32_ls_mode(load, mode_Iu);
2164         SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(cg, node));
2165
2166         return new_r_Proj(irg, block, load, mode_Iu, pn_ia32_Load_res);
2167 }
2168
2169 static ir_node *create_strict_conv(ir_mode *tgt_mode, ir_node *node)
2170 {
2171         ir_node  *block    = get_nodes_block(node);
2172         ir_graph *irg      = current_ir_graph;
2173         dbg_info *dbgi     = get_irn_dbg_info(node);
2174         ir_node  *noreg    = ia32_new_NoReg_gp(env_cg);
2175         ir_node  *nomem    = new_NoMem();
2176         ir_node  *frame    = get_irg_frame(irg);
2177         ir_node  *store, *load;
2178         ir_node  *res;
2179
2180         store = new_rd_ia32_vfst(dbgi, irg, block, frame, noreg, node, nomem,
2181                                  tgt_mode);
2182         set_ia32_use_frame(store);
2183         set_ia32_op_type(store, ia32_AddrModeD);
2184         set_ia32_am_flavour(store, ia32_am_OB);
2185         SET_IA32_ORIG_NODE(store, ia32_get_old_node_name(env_cg, node));
2186
2187         load = new_rd_ia32_vfld(dbgi, irg, block, frame, noreg, store,
2188                                 tgt_mode);
2189         set_ia32_use_frame(load);
2190         set_ia32_op_type(load, ia32_AddrModeS);
2191         set_ia32_am_flavour(load, ia32_am_OB);
2192         SET_IA32_ORIG_NODE(load, ia32_get_old_node_name(env_cg, node));
2193
2194         res = new_r_Proj(irg, block, load, mode_E, pn_ia32_vfld_res);
2195         return res;
2196 }
2197
2198 /**
2199  * Create a conversion from general purpose to x87 register
2200  */
2201 static ir_node *gen_x87_gp_to_fp(ir_node *node, ir_mode *src_mode) {
2202         ir_node   *block  = be_transform_node(get_nodes_block(node));
2203         ir_node   *op     = get_Conv_op(node);
2204         ir_node   *new_op = be_transform_node(op);
2205         ir_graph  *irg    = current_ir_graph;
2206         dbg_info  *dbgi   = get_irn_dbg_info(node);
2207         ir_node   *noreg  = ia32_new_NoReg_gp(env_cg);
2208         ir_node   *nomem  = new_NoMem();
2209         ir_node   *fild, *store;
2210         ir_node   *res;
2211         int        src_bits;
2212
2213         /* first convert to 32 bit if necessary */
2214         src_bits = get_mode_size_bits(src_mode);
2215         if (src_bits == 8) {
2216                 new_op = new_rd_ia32_Conv_I2I8Bit(dbgi, irg, block, noreg, noreg, new_op, nomem, src_mode);
2217                 set_ia32_am_support(new_op, ia32_am_Source, ia32_am_unary);
2218                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
2219         } else if (src_bits < 32) {
2220                 new_op = new_rd_ia32_Conv_I2I(dbgi, irg, block, noreg, noreg, new_op, nomem, src_mode);
2221                 set_ia32_am_support(new_op, ia32_am_Source, ia32_am_unary);
2222                 SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
2223         }
2224
2225         /* do a store */
2226         store = new_rd_ia32_Store(dbgi, irg, block, get_irg_frame(irg), noreg, new_op, nomem);
2227
2228         set_ia32_use_frame(store);
2229         set_ia32_op_type(store, ia32_AddrModeD);
2230         set_ia32_am_flavour(store, ia32_am_OB);
2231         set_ia32_ls_mode(store, mode_Iu);
2232
2233         /* do a fild */
2234         fild = new_rd_ia32_vfild(dbgi, irg, block, get_irg_frame(irg), noreg, store);
2235
2236         set_ia32_use_frame(fild);
2237         set_ia32_op_type(fild, ia32_AddrModeS);
2238         set_ia32_am_flavour(fild, ia32_am_OB);
2239         set_ia32_ls_mode(fild, mode_Iu);
2240
2241         res = new_r_Proj(irg, block, fild, mode_vfp, pn_ia32_vfild_res);
2242
2243         return res;
2244 }
2245
2246 /**
2247  * Crete a conversion from one integer mode into another one
2248  */
2249 static ir_node *create_I2I_Conv(ir_mode *src_mode, ir_mode *tgt_mode,
2250                                 dbg_info *dbgi, ir_node *new_block,
2251                                 ir_node *new_op)
2252 {
2253         ir_graph *irg      = current_ir_graph;
2254         int       src_bits = get_mode_size_bits(src_mode);
2255         int       tgt_bits = get_mode_size_bits(tgt_mode);
2256         ir_node  *noreg    = ia32_new_NoReg_gp(env_cg);
2257         ir_node  *nomem    = new_rd_NoMem(irg);
2258         ir_node  *res;
2259         ir_mode  *smaller_mode;
2260         int       smaller_bits;
2261
2262         if (src_bits < tgt_bits) {
2263                 smaller_mode = src_mode;
2264                 smaller_bits = src_bits;
2265         } else {
2266                 smaller_mode = tgt_mode;
2267                 smaller_bits = tgt_bits;
2268         }
2269
2270         DB((dbg, LEVEL_1, "create Conv(int, int) ...", src_mode, tgt_mode));
2271         if (smaller_bits == 8) {
2272                 res = new_rd_ia32_Conv_I2I8Bit(dbgi, irg, new_block, noreg, noreg,
2273                                                new_op, nomem, smaller_mode);
2274         } else {
2275                 res = new_rd_ia32_Conv_I2I(dbgi, irg, new_block, noreg, noreg, new_op,
2276                                            nomem, smaller_mode);
2277         }
2278         set_ia32_am_support(res, ia32_am_Source, ia32_am_unary);
2279
2280         return res;
2281 }
2282
2283 /**
2284  * Transforms a Conv node.
2285  *
2286  * @return The created ia32 Conv node
2287  */
2288 static ir_node *gen_Conv(ir_node *node) {
2289         ir_node  *block    = be_transform_node(get_nodes_block(node));
2290         ir_node  *op       = get_Conv_op(node);
2291         ir_node  *new_op   = be_transform_node(op);
2292         ir_graph *irg      = current_ir_graph;
2293         dbg_info *dbgi     = get_irn_dbg_info(node);
2294         ir_mode  *src_mode = get_irn_mode(op);
2295         ir_mode  *tgt_mode = get_irn_mode(node);
2296         int       src_bits = get_mode_size_bits(src_mode);
2297         int       tgt_bits = get_mode_size_bits(tgt_mode);
2298         ir_node  *noreg    = ia32_new_NoReg_gp(env_cg);
2299         ir_node  *nomem    = new_rd_NoMem(irg);
2300         ir_node  *res;
2301
2302         if (src_mode == mode_b) {
2303                 assert(mode_is_int(tgt_mode));
2304                 /* nothing to do, we already model bools as 0/1 ints */
2305                 return new_op;
2306         }
2307
2308         if (src_mode == tgt_mode) {
2309                 if (get_Conv_strict(node)) {
2310                         if (USE_SSE2(env_cg)) {
2311                                 /* when we are in SSE mode, we can kill all strict no-op conversion */
2312                                 return new_op;
2313                         }
2314                 } else {
2315                         /* this should be optimized already, but who knows... */
2316                         DEBUG_ONLY(ir_fprintf(stderr, "Debug warning: conv %+F is pointless\n", node));
2317                         DB((dbg, LEVEL_1, "killed Conv(mode, mode) ..."));
2318                         return new_op;
2319                 }
2320         }
2321
2322         if (mode_is_float(src_mode)) {
2323                 /* we convert from float ... */
2324                 if (mode_is_float(tgt_mode)) {
2325                         if(src_mode == mode_E && tgt_mode == mode_D
2326                                         && !get_Conv_strict(node)) {
2327                                 DB((dbg, LEVEL_1, "killed Conv(mode, mode) ..."));
2328                                 return new_op;
2329                         }
2330
2331                         /* ... to float */
2332                         if (USE_SSE2(env_cg)) {
2333                                 DB((dbg, LEVEL_1, "create Conv(float, float) ..."));
2334                                 res = new_rd_ia32_Conv_FP2FP(dbgi, irg, block, noreg, noreg, new_op, nomem);
2335                                 set_ia32_ls_mode(res, tgt_mode);
2336                         } else {
2337                                 if(get_Conv_strict(node)) {
2338                                         res = create_strict_conv(tgt_mode, new_op);
2339                                         SET_IA32_ORIG_NODE(get_Proj_pred(res), ia32_get_old_node_name(env_cg, node));
2340                                         return res;
2341                                 }
2342                                 DB((dbg, LEVEL_1, "killed Conv(float, float) ..."));
2343                                 return new_op;
2344                         }
2345                 } else {
2346                         /* ... to int */
2347                         DB((dbg, LEVEL_1, "create Conv(float, int) ..."));
2348                         if (USE_SSE2(env_cg)) {
2349                                 res = new_rd_ia32_Conv_FP2I(dbgi, irg, block, noreg, noreg, new_op, nomem);
2350                                 set_ia32_ls_mode(res, src_mode);
2351                         } else {
2352                                 return gen_x87_fp_to_gp(node);
2353                         }
2354                 }
2355         } else {
2356                 /* we convert from int ... */
2357                 if (mode_is_float(tgt_mode)) {
2358                         /* ... to float */
2359                         DB((dbg, LEVEL_1, "create Conv(int, float) ..."));
2360                         if (USE_SSE2(env_cg)) {
2361                                 res = new_rd_ia32_Conv_I2FP(dbgi, irg, block, noreg, noreg, new_op, nomem);
2362                                 set_ia32_ls_mode(res, tgt_mode);
2363                                 if(src_bits == 32) {
2364                                         set_ia32_am_support(res, ia32_am_Source, ia32_am_unary);
2365                                 }
2366                         } else {
2367                                 res = gen_x87_gp_to_fp(node, src_mode);
2368                                 if(get_Conv_strict(node)) {
2369                                         res = create_strict_conv(tgt_mode, res);
2370                                         SET_IA32_ORIG_NODE(get_Proj_pred(res),
2371                                                            ia32_get_old_node_name(env_cg, node));
2372                                 }
2373                                 return res;
2374                         }
2375                 } else if(tgt_mode == mode_b) {
2376                         /* mode_b lowering already took care that we only have 0/1 values */
2377                         DB((dbg, LEVEL_1, "omitting unnecessary Conv(%+F, %+F) ...",
2378                             src_mode, tgt_mode));
2379                         return new_op;
2380                 } else {
2381                         /* to int */
2382                         if (src_bits == tgt_bits) {
2383                                 DB((dbg, LEVEL_1, "omitting unnecessary Conv(%+F, %+F) ...",
2384                                     src_mode, tgt_mode));
2385                                 return new_op;
2386                         }
2387
2388                         res = create_I2I_Conv(src_mode, tgt_mode, dbgi, block, new_op);
2389                 }
2390         }
2391
2392         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
2393
2394         return res;
2395 }
2396
2397 static
2398 int check_immediate_constraint(long val, char immediate_constraint_type)
2399 {
2400         switch (immediate_constraint_type) {
2401         case 0:
2402                 return 1;
2403         case 'I':
2404                 return val >= 0 && val <= 32;
2405         case 'J':
2406                 return val >= 0 && val <= 63;
2407         case 'K':
2408                 return val >= -128 && val <= 127;
2409         case 'L':
2410                 return val == 0xff || val == 0xffff;
2411         case 'M':
2412                 return val >= 0 && val <= 3;
2413         case 'N':
2414                 return val >= 0 && val <= 255;
2415         case 'O':
2416                 return val >= 0 && val <= 127;
2417         default:
2418                 break;
2419         }
2420         panic("Invalid immediate constraint found");
2421         return 0;
2422 }
2423
2424 static
2425 ir_node *try_create_Immediate(ir_node *node, char immediate_constraint_type)
2426 {
2427         int          minus         = 0;
2428         tarval      *offset        = NULL;
2429         int          offset_sign   = 0;
2430         long         val = 0;
2431         ir_entity   *symconst_ent  = NULL;
2432         int          symconst_sign = 0;
2433         ir_mode     *mode;
2434         ir_node     *cnst          = NULL;
2435         ir_node     *symconst      = NULL;
2436         ir_node     *res;
2437         ir_graph    *irg;
2438         dbg_info    *dbgi;
2439         ir_node     *block;
2440
2441         mode = get_irn_mode(node);
2442         if(!mode_is_int(mode) && !mode_is_reference(mode)) {
2443                 return NULL;
2444         }
2445
2446         if(is_Minus(node)) {
2447                 minus = 1;
2448                 node  = get_Minus_op(node);
2449         }
2450
2451         if(is_Const(node)) {
2452                 cnst        = node;
2453                 symconst    = NULL;
2454                 offset_sign = minus;
2455         } else if(is_SymConst(node)) {
2456                 cnst          = NULL;
2457                 symconst      = node;
2458                 symconst_sign = minus;
2459         } else if(is_Add(node)) {
2460                 ir_node *left  = get_Add_left(node);
2461                 ir_node *right = get_Add_right(node);
2462                 if(is_Const(left) && is_SymConst(right)) {
2463                         cnst          = left;
2464                         symconst      = right;
2465                         symconst_sign = minus;
2466                         offset_sign   = minus;
2467                 } else if(is_SymConst(left) && is_Const(right)) {
2468                         cnst          = right;
2469                         symconst      = left;
2470                         symconst_sign = minus;
2471                         offset_sign   = minus;
2472                 }
2473         } else if(is_Sub(node)) {
2474                 ir_node *left  = get_Sub_left(node);
2475                 ir_node *right = get_Sub_right(node);
2476                 if(is_Const(left) && is_SymConst(right)) {
2477                         cnst          = left;
2478                         symconst      = right;
2479                         symconst_sign = !minus;
2480                         offset_sign   = minus;
2481                 } else if(is_SymConst(left) && is_Const(right)) {
2482                         cnst          = right;
2483                         symconst      = left;
2484                         symconst_sign = minus;
2485                         offset_sign   = !minus;
2486                 }
2487         } else {
2488                 return NULL;
2489         }
2490
2491         if(cnst != NULL) {
2492                 offset = get_Const_tarval(cnst);
2493                 if(tarval_is_long(offset)) {
2494                         val = get_tarval_long(offset);
2495                 } else if(tarval_is_null(offset)) {
2496                         val = 0;
2497                 } else {
2498                         ir_fprintf(stderr, "Optimisation Warning: tarval from %+F is not a "
2499                                    "long?\n", cnst);
2500                         return NULL;
2501                 }
2502
2503                 if(!check_immediate_constraint(val, immediate_constraint_type))
2504                         return NULL;
2505         }
2506         if(symconst != NULL) {
2507                 if(immediate_constraint_type != 0) {
2508                         /* we need full 32bits for symconsts */
2509                         return NULL;
2510                 }
2511
2512                 if(get_SymConst_kind(symconst) != symconst_addr_ent)
2513                         return NULL;
2514                 symconst_ent = get_SymConst_entity(symconst);
2515         }
2516         if(cnst == NULL && symconst == NULL)
2517                 return NULL;
2518
2519         if(offset_sign && offset != NULL) {
2520                 offset = tarval_neg(offset);
2521         }
2522
2523         irg   = current_ir_graph;
2524         dbgi  = get_irn_dbg_info(node);
2525         block = get_irg_start_block(irg);
2526         res   = new_rd_ia32_Immediate(dbgi, irg, block, symconst_ent,
2527                                       symconst_sign, val);
2528         arch_set_irn_register(env_cg->arch_env, res, &ia32_gp_regs[REG_GP_NOREG]);
2529
2530         return res;
2531 }
2532
2533 static
2534 ir_node *create_immediate_or_transform(ir_node *node, char immediate_constraint_type)
2535 {
2536         ir_node *new_node = try_create_Immediate(node, immediate_constraint_type);
2537         if (new_node == NULL) {
2538                 new_node = be_transform_node(node);
2539         }
2540         return new_node;
2541 }
2542
2543 typedef struct constraint_t constraint_t;
2544 struct constraint_t {
2545         int                         is_in;
2546         int                         n_outs;
2547         const arch_register_req_t **out_reqs;
2548
2549         const arch_register_req_t  *req;
2550         unsigned                    immediate_possible;
2551         char                        immediate_type;
2552 };
2553
2554 void parse_asm_constraint(int pos, constraint_t *constraint, const char *c)
2555 {
2556         int                          immediate_possible = 0;
2557         char                         immediate_type     = 0;
2558         unsigned                     limited            = 0;
2559         const arch_register_class_t *cls                = NULL;
2560         ir_graph                    *irg;
2561         struct obstack              *obst;
2562         arch_register_req_t         *req;
2563         unsigned                    *limited_ptr;
2564         int                          p;
2565         int                          same_as = -1;
2566
2567         /* TODO: replace all the asserts with nice error messages */
2568
2569         printf("Constraint: %s\n", c);
2570
2571         while(*c != 0) {
2572                 switch(*c) {
2573                 case ' ':
2574                 case '\t':
2575                 case '\n':
2576                         break;
2577
2578                 case 'a':
2579                         assert(cls == NULL ||
2580                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2581                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2582                         limited |= 1 << REG_EAX;
2583                         break;
2584                 case 'b':
2585                         assert(cls == NULL ||
2586                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2587                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2588                         limited |= 1 << REG_EBX;
2589                         break;
2590                 case 'c':
2591                         assert(cls == NULL ||
2592                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2593                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2594                         limited |= 1 << REG_ECX;
2595                         break;
2596                 case 'd':
2597                         assert(cls == NULL ||
2598                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2599                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2600                         limited |= 1 << REG_EDX;
2601                         break;
2602                 case 'D':
2603                         assert(cls == NULL ||
2604                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2605                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2606                         limited |= 1 << REG_EDI;
2607                         break;
2608                 case 'S':
2609                         assert(cls == NULL ||
2610                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2611                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2612                         limited |= 1 << REG_ESI;
2613                         break;
2614                 case 'Q':
2615                 case 'q': /* q means lower part of the regs only, this makes no
2616                                    * difference to Q for us (we only assigne whole registers) */
2617                         assert(cls == NULL ||
2618                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2619                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2620                         limited |= 1 << REG_EAX | 1 << REG_EBX | 1 << REG_ECX |
2621                                    1 << REG_EDX;
2622                         break;
2623                 case 'A':
2624                         assert(cls == NULL ||
2625                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2626                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2627                         limited |= 1 << REG_EAX | 1 << REG_EDX;
2628                         break;
2629                 case 'l':
2630                         assert(cls == NULL ||
2631                                         (cls == &ia32_reg_classes[CLASS_ia32_gp] && limited != 0));
2632                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2633                         limited |= 1 << REG_EAX | 1 << REG_EBX | 1 << REG_ECX |
2634                                    1 << REG_EDX | 1 << REG_ESI | 1 << REG_EDI |
2635                                    1 << REG_EBP;
2636                         break;
2637
2638                 case 'R':
2639                 case 'r':
2640                 case 'p':
2641                         assert(cls == NULL);
2642                         cls      = &ia32_reg_classes[CLASS_ia32_gp];
2643                         break;
2644
2645                 case 'f':
2646                 case 't':
2647                 case 'u':
2648                         /* TODO: mark values so the x87 simulator knows about t and u */
2649                         assert(cls == NULL);
2650                         cls = &ia32_reg_classes[CLASS_ia32_vfp];
2651                         break;
2652
2653                 case 'Y':
2654                 case 'x':
2655                         assert(cls == NULL);
2656                         /* TODO: check that sse2 is supported */
2657                         cls = &ia32_reg_classes[CLASS_ia32_xmm];
2658                         break;
2659
2660                 case 'I':
2661                 case 'J':
2662                 case 'K':
2663                 case 'L':
2664                 case 'M':
2665                 case 'N':
2666                 case 'O':
2667                         assert(!immediate_possible);
2668                         immediate_possible = 1;
2669                         immediate_type     = *c;
2670                         break;
2671                 case 'n':
2672                 case 'i':
2673                         assert(!immediate_possible);
2674                         immediate_possible = 1;
2675                         break;
2676
2677                 case 'g':
2678                         assert(!immediate_possible && cls == NULL);
2679                         immediate_possible = 1;
2680                         cls                = &ia32_reg_classes[CLASS_ia32_gp];
2681                         break;
2682
2683                 case '0':
2684                 case '1':
2685                 case '2':
2686                 case '3':
2687                 case '4':
2688                 case '5':
2689                 case '6':
2690                 case '7':
2691                 case '8':
2692                 case '9':
2693                         assert(constraint->is_in && "can only specify same constraint "
2694                                "on input");
2695
2696                         sscanf(c, "%d%n", &same_as, &p);
2697                         if(same_as >= 0) {
2698                                 c += p;
2699                                 continue;
2700                         }
2701                         break;
2702
2703                 case 'E': /* no float consts yet */
2704                 case 'F': /* no float consts yet */
2705                 case 's': /* makes no sense on x86 */
2706                 case 'X': /* we can't support that in firm */
2707                 case 'm':
2708                 case 'o':
2709                 case 'V':
2710                 case '<': /* no autodecrement on x86 */
2711                 case '>': /* no autoincrement on x86 */
2712                 case 'C': /* sse constant not supported yet */
2713                 case 'G': /* 80387 constant not supported yet */
2714                 case 'y': /* we don't support mmx registers yet */
2715                 case 'Z': /* not available in 32 bit mode */
2716                 case 'e': /* not available in 32 bit mode */
2717                         assert(0 && "asm constraint not supported");
2718                         break;
2719                 default:
2720                         assert(0 && "unknown asm constraint found");
2721                         break;
2722                 }
2723                 ++c;
2724         }
2725
2726         if(same_as >= 0) {
2727                 const arch_register_req_t *other_constr;
2728
2729                 assert(cls == NULL && "same as and register constraint not supported");
2730                 assert(!immediate_possible && "same as and immediate constraint not "
2731                        "supported");
2732                 assert(same_as < constraint->n_outs && "wrong constraint number in "
2733                        "same_as constraint");
2734
2735                 other_constr         = constraint->out_reqs[same_as];
2736
2737                 req                  = obstack_alloc(obst, sizeof(req[0]));
2738                 req->cls             = other_constr->cls;
2739                 req->type            = arch_register_req_type_should_be_same;
2740                 req->limited         = NULL;
2741                 req->other_same      = pos;
2742                 req->other_different = -1;
2743
2744                 /* switch constraints. This is because in firm we have same_as
2745                  * constraints on the output constraints while in the gcc asm syntax
2746                  * they are specified on the input constraints */
2747                 constraint->req               = other_constr;
2748                 constraint->out_reqs[same_as] = req;
2749                 constraint->immediate_possible = 0;
2750                 return;
2751         }
2752
2753         if(immediate_possible && cls == NULL) {
2754                 cls = &ia32_reg_classes[CLASS_ia32_gp];
2755         }
2756         assert(!immediate_possible || cls == &ia32_reg_classes[CLASS_ia32_gp]);
2757         assert(cls != NULL);
2758
2759         if(immediate_possible) {
2760                 assert(constraint->is_in
2761                        && "imeediates make no sense for output constraints");
2762         }
2763         /* todo: check types (no float input on 'r' constrainted in and such... */
2764
2765         irg  = current_ir_graph;
2766         obst = get_irg_obstack(irg);
2767
2768         if(limited != 0) {
2769                 req          = obstack_alloc(obst, sizeof(req[0]) + sizeof(unsigned));
2770                 limited_ptr  = (unsigned*) (req+1);
2771         } else {
2772                 req = obstack_alloc(obst, sizeof(req[0]));
2773         }
2774         memset(req, 0, sizeof(req[0]));
2775
2776         if(limited != 0) {
2777                 req->type    = arch_register_req_type_limited;
2778                 *limited_ptr = limited;
2779                 req->limited = limited_ptr;
2780         } else {
2781                 req->type    = arch_register_req_type_normal;
2782         }
2783         req->cls = cls;
2784
2785         constraint->req                = req;
2786         constraint->immediate_possible = immediate_possible;
2787         constraint->immediate_type     = immediate_type;
2788 }
2789
2790 static
2791 void parse_clobber(ir_node *node, int pos, constraint_t *constraint,
2792                    const char *c)
2793 {
2794         (void) node;
2795         (void) pos;
2796         (void) constraint;
2797         (void) c;
2798         panic("Clobbers not supported yet");
2799 }
2800
2801 ir_node *gen_ASM(ir_node *node)
2802 {
2803         int                   i, arity;
2804         ir_graph             *irg   = current_ir_graph;
2805         ir_node              *block = be_transform_node(get_nodes_block(node));
2806         dbg_info             *dbgi  = get_irn_dbg_info(node);
2807         ir_node             **in;
2808         ir_node              *res;
2809         int                   out_arity;
2810         int                   n_outs;
2811         int                   n_clobbers;
2812         void                 *generic_attr;
2813         ia32_asm_attr_t      *attr;
2814         const arch_register_req_t **out_reqs;
2815         const arch_register_req_t **in_reqs;
2816         struct obstack       *obst;
2817         constraint_t          parsed_constraint;
2818
2819         /* transform inputs */
2820         arity = get_irn_arity(node);
2821         in    = alloca(arity * sizeof(in[0]));
2822         memset(in, 0, arity * sizeof(in[0]));
2823
2824         n_outs     = get_ASM_n_output_constraints(node);
2825         n_clobbers = get_ASM_n_clobbers(node);
2826         out_arity  = n_outs + n_clobbers;
2827
2828         /* construct register constraints */
2829         obst     = get_irg_obstack(irg);
2830         out_reqs = obstack_alloc(obst, out_arity * sizeof(out_reqs[0]));
2831         parsed_constraint.out_reqs = out_reqs;
2832         parsed_constraint.n_outs   = n_outs;
2833         parsed_constraint.is_in    = 0;
2834         for(i = 0; i < out_arity; ++i) {
2835                 const char   *c;
2836
2837                 if(i < n_outs) {
2838                         const ir_asm_constraint *constraint;
2839                         constraint = & get_ASM_output_constraints(node) [i];
2840                         c = get_id_str(constraint->constraint);
2841                         parse_asm_constraint(i, &parsed_constraint, c);
2842                 } else {
2843                         ident *glob_id = get_ASM_clobbers(node) [i - n_outs];
2844                         c = get_id_str(glob_id);
2845                         parse_clobber(node, i, &parsed_constraint, c);
2846                 }
2847                 out_reqs[i] = parsed_constraint.req;
2848         }
2849
2850         in_reqs = obstack_alloc(obst, arity * sizeof(in_reqs[0]));
2851         parsed_constraint.is_in = 1;
2852         for(i = 0; i < arity; ++i) {
2853                 const ir_asm_constraint   *constraint;
2854                 ident                     *constr_id;
2855                 const char                *c;
2856
2857                 constraint = & get_ASM_input_constraints(node) [i];
2858                 constr_id  = constraint->constraint;
2859                 c          = get_id_str(constr_id);
2860                 parse_asm_constraint(i, &parsed_constraint, c);
2861                 in_reqs[i] = parsed_constraint.req;
2862
2863                 if(parsed_constraint.immediate_possible) {
2864                         ir_node *pred      = get_irn_n(node, i);
2865                         char     imm_type  = parsed_constraint.immediate_type;
2866                         ir_node *immediate = try_create_Immediate(pred, imm_type);
2867
2868                         if(immediate != NULL) {
2869                                 in[i] = immediate;
2870                         }
2871                 }
2872         }
2873
2874         /* transform inputs */
2875         for(i = 0; i < arity; ++i) {
2876                 ir_node *pred;
2877                 ir_node *transformed;
2878
2879                 if(in[i] != NULL)
2880                         continue;
2881
2882                 pred        = get_irn_n(node, i);
2883                 transformed = be_transform_node(pred);
2884                 in[i]       = transformed;
2885         }
2886
2887         res = new_rd_ia32_Asm(dbgi, irg, block, arity, in, out_arity);
2888
2889         generic_attr   = get_irn_generic_attr(res);
2890         attr           = CAST_IA32_ATTR(ia32_asm_attr_t, generic_attr);
2891         attr->asm_text = get_ASM_text(node);
2892         set_ia32_out_req_all(res, out_reqs);
2893         set_ia32_in_req_all(res, in_reqs);
2894
2895         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
2896
2897         return res;
2898 }
2899
2900 /********************************************
2901  *  _                          _
2902  * | |                        | |
2903  * | |__   ___ _ __   ___   __| | ___  ___
2904  * | '_ \ / _ \ '_ \ / _ \ / _` |/ _ \/ __|
2905  * | |_) |  __/ | | | (_) | (_| |  __/\__ \
2906  * |_.__/ \___|_| |_|\___/ \__,_|\___||___/
2907  *
2908  ********************************************/
2909
2910 static ir_node *gen_be_StackParam(ir_node *node) {
2911         ir_node  *block      = be_transform_node(get_nodes_block(node));
2912         ir_node   *ptr       = get_irn_n(node, be_pos_StackParam_ptr);
2913         ir_node   *new_ptr   = be_transform_node(ptr);
2914         ir_node   *new_op    = NULL;
2915         ir_graph  *irg       = current_ir_graph;
2916         dbg_info  *dbgi      = get_irn_dbg_info(node);
2917         ir_node   *nomem     = new_rd_NoMem(current_ir_graph);
2918         ir_entity *ent       = arch_get_frame_entity(env_cg->arch_env, node);
2919         ir_mode   *load_mode = get_irn_mode(node);
2920         ir_node   *noreg     = ia32_new_NoReg_gp(env_cg);
2921         ir_mode   *proj_mode;
2922         long      pn_res;
2923
2924         if (mode_is_float(load_mode)) {
2925                 if (USE_SSE2(env_cg)) {
2926                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, nomem);
2927                         pn_res    = pn_ia32_xLoad_res;
2928                         proj_mode = mode_xmm;
2929                 } else {
2930                         new_op = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, nomem, load_mode);
2931                         pn_res    = pn_ia32_vfld_res;
2932                         proj_mode = mode_vfp;
2933                 }
2934         } else {
2935                 new_op = new_rd_ia32_Load(dbgi, irg, block, new_ptr, noreg, nomem);
2936                 proj_mode = mode_Iu;
2937                 pn_res = pn_ia32_Load_res;
2938         }
2939
2940         set_irn_pinned(new_op, op_pin_state_floats);
2941         set_ia32_frame_ent(new_op, ent);
2942         set_ia32_use_frame(new_op);
2943
2944         set_ia32_op_type(new_op, ia32_AddrModeS);
2945         set_ia32_am_flavour(new_op, ia32_am_B);
2946         set_ia32_ls_mode(new_op, load_mode);
2947         set_ia32_flags(new_op, get_ia32_flags(new_op) | arch_irn_flags_rematerializable);
2948
2949         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
2950
2951         return new_rd_Proj(dbgi, irg, block, new_op, proj_mode, pn_res);
2952 }
2953
2954 /**
2955  * Transforms a FrameAddr into an ia32 Add.
2956  */
2957 static ir_node *gen_be_FrameAddr(ir_node *node) {
2958         ir_node  *block  = be_transform_node(get_nodes_block(node));
2959         ir_node  *op     = be_get_FrameAddr_frame(node);
2960         ir_node  *new_op = be_transform_node(op);
2961         ir_graph *irg    = current_ir_graph;
2962         dbg_info *dbgi   = get_irn_dbg_info(node);
2963         ir_node  *noreg  = ia32_new_NoReg_gp(env_cg);
2964         ir_node  *res;
2965
2966         res = new_rd_ia32_Lea(dbgi, irg, block, new_op, noreg);
2967         set_ia32_frame_ent(res, arch_get_frame_entity(env_cg->arch_env, node));
2968         set_ia32_use_frame(res);
2969         set_ia32_am_flavour(res, ia32_am_OB);
2970
2971         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, node));
2972
2973         return res;
2974 }
2975
2976 /**
2977  * Transforms a FrameLoad into an ia32 Load.
2978  */
2979 static ir_node *gen_be_FrameLoad(ir_node *node) {
2980         ir_node   *block   = be_transform_node(get_nodes_block(node));
2981         ir_node   *mem     = get_irn_n(node, be_pos_FrameLoad_mem);
2982         ir_node   *new_mem = be_transform_node(mem);
2983         ir_node   *ptr     = get_irn_n(node, be_pos_FrameLoad_ptr);
2984         ir_node   *new_ptr = be_transform_node(ptr);
2985         ir_node   *new_op  = NULL;
2986         ir_graph  *irg     = current_ir_graph;
2987         dbg_info  *dbgi    = get_irn_dbg_info(node);
2988         ir_node   *noreg   = ia32_new_NoReg_gp(env_cg);
2989         ir_entity *ent     = arch_get_frame_entity(env_cg->arch_env, node);
2990         ir_mode   *mode    = get_type_mode(get_entity_type(ent));
2991         ir_node   *projs[pn_Load_max];
2992
2993         ia32_collect_Projs(node, projs, pn_Load_max);
2994
2995         if (mode_is_float(mode)) {
2996                 if (USE_SSE2(env_cg)) {
2997                         new_op = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, new_mem);
2998                 }
2999                 else {
3000                         new_op = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, new_mem, mode);
3001                 }
3002         }
3003         else {
3004                 new_op = new_rd_ia32_Load(dbgi, irg, block, new_ptr, noreg, new_mem);
3005         }
3006
3007         set_irn_pinned(new_op, op_pin_state_floats);
3008         set_ia32_frame_ent(new_op, ent);
3009         set_ia32_use_frame(new_op);
3010
3011         set_ia32_op_type(new_op, ia32_AddrModeS);
3012         set_ia32_am_flavour(new_op, ia32_am_B);
3013         set_ia32_ls_mode(new_op, mode);
3014         set_ia32_flags(new_op, get_ia32_flags(new_op) | arch_irn_flags_rematerializable);
3015
3016         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
3017
3018         return new_op;
3019 }
3020
3021
3022 /**
3023  * Transforms a FrameStore into an ia32 Store.
3024  */
3025 static ir_node *gen_be_FrameStore(ir_node *node) {
3026         ir_node   *block   = be_transform_node(get_nodes_block(node));
3027         ir_node   *mem     = get_irn_n(node, be_pos_FrameStore_mem);
3028         ir_node   *new_mem = be_transform_node(mem);
3029         ir_node   *ptr     = get_irn_n(node, be_pos_FrameStore_ptr);
3030         ir_node   *new_ptr = be_transform_node(ptr);
3031         ir_node   *val     = get_irn_n(node, be_pos_FrameStore_val);
3032         ir_node   *new_val = be_transform_node(val);
3033         ir_node   *new_op  = NULL;
3034         ir_graph  *irg     = current_ir_graph;
3035         dbg_info  *dbgi    = get_irn_dbg_info(node);
3036         ir_node   *noreg   = ia32_new_NoReg_gp(env_cg);
3037         ir_entity *ent     = arch_get_frame_entity(env_cg->arch_env, node);
3038         ir_mode   *mode    = get_irn_mode(val);
3039
3040         if (mode_is_float(mode)) {
3041                 if (USE_SSE2(env_cg)) {
3042                         new_op = new_rd_ia32_xStore(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3043                 } else {
3044                         new_op = new_rd_ia32_vfst(dbgi, irg, block, new_ptr, noreg, new_val, new_mem, mode);
3045                 }
3046         } else if (get_mode_size_bits(mode) == 8) {
3047                 new_op = new_rd_ia32_Store8Bit(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3048         } else {
3049                 new_op = new_rd_ia32_Store(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3050         }
3051
3052         set_ia32_frame_ent(new_op, ent);
3053         set_ia32_use_frame(new_op);
3054
3055         set_ia32_op_type(new_op, ia32_AddrModeD);
3056         set_ia32_am_flavour(new_op, ia32_am_B);
3057         set_ia32_ls_mode(new_op, mode);
3058
3059         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
3060
3061         return new_op;
3062 }
3063
3064 /**
3065  * In case SSE is used we need to copy the result from XMM0 to FPU TOS before return.
3066  */
3067 static ir_node *gen_be_Return(ir_node *node) {
3068         ir_graph  *irg     = current_ir_graph;
3069         ir_node   *ret_val = get_irn_n(node, be_pos_Return_val);
3070         ir_node   *ret_mem = get_irn_n(node, be_pos_Return_mem);
3071         ir_entity *ent     = get_irg_entity(irg);
3072         ir_type   *tp      = get_entity_type(ent);
3073         dbg_info  *dbgi;
3074         ir_node   *block;
3075         ir_type   *res_type;
3076         ir_mode   *mode;
3077         ir_node   *frame, *sse_store, *fld, *mproj, *barrier;
3078         ir_node   *new_barrier, *new_ret_val, *new_ret_mem;
3079         ir_node   *noreg;
3080         ir_node   **in;
3081         int       pn_ret_val, pn_ret_mem, arity, i;
3082
3083         assert(ret_val != NULL);
3084         if (be_Return_get_n_rets(node) < 1 || ! USE_SSE2(env_cg)) {
3085                 return be_duplicate_node(node);
3086         }
3087
3088         res_type = get_method_res_type(tp, 0);
3089
3090         if (! is_Primitive_type(res_type)) {
3091                 return be_duplicate_node(node);
3092         }
3093
3094         mode = get_type_mode(res_type);
3095         if (! mode_is_float(mode)) {
3096                 return be_duplicate_node(node);
3097         }
3098
3099         assert(get_method_n_ress(tp) == 1);
3100
3101         pn_ret_val = get_Proj_proj(ret_val);
3102         pn_ret_mem = get_Proj_proj(ret_mem);
3103
3104         /* get the Barrier */
3105         barrier = get_Proj_pred(ret_val);
3106
3107         /* get result input of the Barrier */
3108         ret_val     = get_irn_n(barrier, pn_ret_val);
3109         new_ret_val = be_transform_node(ret_val);
3110
3111         /* get memory input of the Barrier */
3112         ret_mem     = get_irn_n(barrier, pn_ret_mem);
3113         new_ret_mem = be_transform_node(ret_mem);
3114
3115         frame = get_irg_frame(irg);
3116
3117         dbgi  = get_irn_dbg_info(barrier);
3118         block = be_transform_node(get_nodes_block(barrier));
3119
3120         noreg = ia32_new_NoReg_gp(env_cg);
3121
3122         /* store xmm0 onto stack */
3123         sse_store = new_rd_ia32_xStoreSimple(dbgi, irg, block, frame, noreg,
3124                                              new_ret_val, new_ret_mem);
3125         set_ia32_ls_mode(sse_store, mode);
3126         set_ia32_op_type(sse_store, ia32_AddrModeD);
3127         set_ia32_use_frame(sse_store);
3128         set_ia32_am_flavour(sse_store, ia32_am_B);
3129
3130         /* load into x87 register */
3131         fld = new_rd_ia32_vfld(dbgi, irg, block, frame, noreg, sse_store, mode);
3132         set_ia32_op_type(fld, ia32_AddrModeS);
3133         set_ia32_use_frame(fld);
3134         set_ia32_am_flavour(fld, ia32_am_B);
3135
3136         mproj = new_r_Proj(irg, block, fld, mode_M, pn_ia32_vfld_M);
3137         fld   = new_r_Proj(irg, block, fld, mode_vfp, pn_ia32_vfld_res);
3138
3139         /* create a new barrier */
3140         arity = get_irn_arity(barrier);
3141         in = alloca(arity * sizeof(in[0]));
3142         for (i = 0; i < arity; ++i) {
3143                 ir_node *new_in;
3144
3145                 if (i == pn_ret_val) {
3146                         new_in = fld;
3147                 } else if (i == pn_ret_mem) {
3148                         new_in = mproj;
3149                 } else {
3150                         ir_node *in = get_irn_n(barrier, i);
3151                         new_in = be_transform_node(in);
3152                 }
3153                 in[i] = new_in;
3154         }
3155
3156         new_barrier = new_ir_node(dbgi, irg, block,
3157                                   get_irn_op(barrier), get_irn_mode(barrier),
3158                                   arity, in);
3159         copy_node_attr(barrier, new_barrier);
3160         be_duplicate_deps(barrier, new_barrier);
3161         be_set_transformed_node(barrier, new_barrier);
3162         mark_irn_visited(barrier);
3163
3164         /* transform normally */
3165         return be_duplicate_node(node);
3166 }
3167
3168 /**
3169  * Transform a be_AddSP into an ia32_AddSP. Eat up const sizes.
3170  */
3171 static ir_node *gen_be_AddSP(ir_node *node) {
3172         ir_node  *block  = be_transform_node(get_nodes_block(node));
3173         ir_node  *sz     = get_irn_n(node, be_pos_AddSP_size);
3174         ir_node  *new_sz;
3175         ir_node  *sp     = get_irn_n(node, be_pos_AddSP_old_sp);
3176         ir_node  *new_sp = be_transform_node(sp);
3177         ir_graph *irg    = current_ir_graph;
3178         dbg_info *dbgi   = get_irn_dbg_info(node);
3179         ir_node  *noreg  = ia32_new_NoReg_gp(env_cg);
3180         ir_node  *nomem  = new_NoMem();
3181         ir_node  *new_op;
3182
3183         new_sz = create_immediate_or_transform(sz, 0);
3184
3185         /* ia32 stack grows in reverse direction, make a SubSP */
3186         new_op = new_rd_ia32_SubSP(dbgi, irg, block, noreg, noreg, new_sp, new_sz,
3187                                    nomem);
3188         set_ia32_am_support(new_op, ia32_am_Source, ia32_am_binary);
3189         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
3190
3191         return new_op;
3192 }
3193
3194 /**
3195  * Transform a be_SubSP into an ia32_SubSP. Eat up const sizes.
3196  */
3197 static ir_node *gen_be_SubSP(ir_node *node) {
3198         ir_node  *block  = be_transform_node(get_nodes_block(node));
3199         ir_node  *sz     = get_irn_n(node, be_pos_SubSP_size);
3200         ir_node  *new_sz;
3201         ir_node  *sp     = get_irn_n(node, be_pos_SubSP_old_sp);
3202         ir_node  *new_sp = be_transform_node(sp);
3203         ir_graph *irg    = current_ir_graph;
3204         dbg_info *dbgi   = get_irn_dbg_info(node);
3205         ir_node  *noreg  = ia32_new_NoReg_gp(env_cg);
3206         ir_node  *nomem  = new_NoMem();
3207         ir_node  *new_op;
3208
3209         new_sz = create_immediate_or_transform(sz, 0);
3210
3211         /* ia32 stack grows in reverse direction, make an AddSP */
3212         new_op = new_rd_ia32_AddSP(dbgi, irg, block, noreg, noreg, new_sp, new_sz, nomem);
3213         set_ia32_am_support(new_op, ia32_am_Source, ia32_am_binary);
3214         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
3215
3216         return new_op;
3217 }
3218
3219 /**
3220  * This function just sets the register for the Unknown node
3221  * as this is not done during register allocation because Unknown
3222  * is an "ignore" node.
3223  */
3224 static ir_node *gen_Unknown(ir_node *node) {
3225         ir_mode *mode = get_irn_mode(node);
3226
3227         if (mode_is_float(mode)) {
3228 #if 0
3229                 /* Unknown nodes are buggy in x87 sim, use zero for now... */
3230                 if (USE_SSE2(env_cg))
3231                         return ia32_new_Unknown_xmm(env_cg);
3232                 else
3233                         return ia32_new_Unknown_vfp(env_cg);
3234 #else
3235                 ir_graph *irg   = current_ir_graph;
3236                 dbg_info *dbgi  = get_irn_dbg_info(node);
3237                 ir_node  *block = get_irg_start_block(irg);
3238                 return new_rd_ia32_vfldz(dbgi, irg, block);
3239 #endif
3240         } else if (mode_needs_gp_reg(mode)) {
3241                 return ia32_new_Unknown_gp(env_cg);
3242         } else {
3243                 assert(0 && "unsupported Unknown-Mode");
3244         }
3245
3246         return NULL;
3247 }
3248
3249 /**
3250  * Change some phi modes
3251  */
3252 static ir_node *gen_Phi(ir_node *node) {
3253         ir_node  *block = be_transform_node(get_nodes_block(node));
3254         ir_graph *irg   = current_ir_graph;
3255         dbg_info *dbgi  = get_irn_dbg_info(node);
3256         ir_mode  *mode  = get_irn_mode(node);
3257         ir_node  *phi;
3258
3259         if(mode_needs_gp_reg(mode)) {
3260                 /* we shouldn't have any 64bit stuff around anymore */
3261                 assert(get_mode_size_bits(mode) <= 32);
3262                 /* all integer operations are on 32bit registers now */
3263                 mode = mode_Iu;
3264         } else if(mode_is_float(mode)) {
3265                 if (USE_SSE2(env_cg)) {
3266                         mode = mode_xmm;
3267                 } else {
3268                         mode = mode_vfp;
3269                 }
3270         }
3271
3272         /* phi nodes allow loops, so we use the old arguments for now
3273          * and fix this later */
3274         phi = new_ir_node(dbgi, irg, block, op_Phi, mode, get_irn_arity(node), get_irn_in(node) + 1);
3275         copy_node_attr(node, phi);
3276         be_duplicate_deps(node, phi);
3277
3278         be_set_transformed_node(node, phi);
3279         be_enqueue_preds(node);
3280
3281         return phi;
3282 }
3283
3284 /**
3285  * Transform IJmp
3286  */
3287 static ir_node *gen_IJmp(ir_node *node) {
3288         ir_node  *block    = be_transform_node(get_nodes_block(node));
3289         ir_graph *irg      = current_ir_graph;
3290         dbg_info *dbgi     = get_irn_dbg_info(node);
3291         ir_node  *new_op   = be_transform_node(get_IJmp_target(node));
3292         ir_node  *noreg    = ia32_new_NoReg_gp(env_cg);
3293         ir_node  *nomem    = new_NoMem();
3294         ir_node  *new_node;
3295
3296         new_node = new_rd_ia32_IJmp(dbgi, irg, block, noreg, noreg, new_op, nomem);
3297         set_ia32_am_support(new_node, ia32_am_Source, ia32_am_unary);
3298
3299         SET_IA32_ORIG_NODE(new_node, ia32_get_old_node_name(env_cg, node));
3300
3301         return new_node;
3302 }
3303
3304
3305 /**********************************************************************
3306  *  _                                _                   _
3307  * | |                              | |                 | |
3308  * | | _____      _____ _ __ ___  __| |  _ __   ___   __| | ___  ___
3309  * | |/ _ \ \ /\ / / _ \ '__/ _ \/ _` | | '_ \ / _ \ / _` |/ _ \/ __|
3310  * | | (_) \ V  V /  __/ | |  __/ (_| | | | | | (_) | (_| |  __/\__ \
3311  * |_|\___/ \_/\_/ \___|_|  \___|\__,_| |_| |_|\___/ \__,_|\___||___/
3312  *
3313  **********************************************************************/
3314
3315 /* These nodes are created in intrinsic lowering (64bit -> 32bit) */
3316
3317 typedef ir_node *construct_load_func(dbg_info *db, ir_graph *irg, ir_node *block, ir_node *base, ir_node *index, \
3318                                      ir_node *mem);
3319
3320 typedef ir_node *construct_store_func(dbg_info *db, ir_graph *irg, ir_node *block, ir_node *base, ir_node *index, \
3321                                       ir_node *val, ir_node *mem);
3322
3323 /**
3324  * Transforms a lowered Load into a "real" one.
3325  */
3326 static ir_node *gen_lowered_Load(ir_node *node, construct_load_func func)
3327 {
3328         ir_node  *block   = be_transform_node(get_nodes_block(node));
3329         ir_node  *ptr     = get_irn_n(node, 0);
3330         ir_node  *new_ptr = be_transform_node(ptr);
3331         ir_node  *mem     = get_irn_n(node, 1);
3332         ir_node  *new_mem = be_transform_node(mem);
3333         ir_graph *irg     = current_ir_graph;
3334         dbg_info *dbgi    = get_irn_dbg_info(node);
3335         ir_mode  *mode    = get_ia32_ls_mode(node);
3336         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
3337         ir_node  *new_op;
3338
3339         new_op  = func(dbgi, irg, block, new_ptr, noreg, new_mem);
3340
3341         set_ia32_op_type(new_op, ia32_AddrModeS);
3342         set_ia32_am_flavour(new_op, ia32_am_OB);
3343         set_ia32_am_offs_int(new_op, 0);
3344         set_ia32_am_scale(new_op, 1);
3345         set_ia32_am_sc(new_op, get_ia32_am_sc(node));
3346         if (is_ia32_am_sc_sign(node))
3347                 set_ia32_am_sc_sign(new_op);
3348         set_ia32_ls_mode(new_op, mode);
3349         if (is_ia32_use_frame(node)) {
3350                 set_ia32_frame_ent(new_op, get_ia32_frame_ent(node));
3351                 set_ia32_use_frame(new_op);
3352         }
3353
3354         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
3355
3356         return new_op;
3357 }
3358
3359 /**
3360 * Transforms a lowered Store into a "real" one.
3361 */
3362 static ir_node *gen_lowered_Store(ir_node *node, construct_store_func func)
3363 {
3364         ir_node  *block   = be_transform_node(get_nodes_block(node));
3365         ir_node  *ptr     = get_irn_n(node, 0);
3366         ir_node  *new_ptr = be_transform_node(ptr);
3367         ir_node  *val     = get_irn_n(node, 1);
3368         ir_node  *new_val = be_transform_node(val);
3369         ir_node  *mem     = get_irn_n(node, 2);
3370         ir_node  *new_mem = be_transform_node(mem);
3371         ir_graph *irg     = current_ir_graph;
3372         dbg_info *dbgi    = get_irn_dbg_info(node);
3373         ir_node  *noreg   = ia32_new_NoReg_gp(env_cg);
3374         ir_mode  *mode    = get_ia32_ls_mode(node);
3375         ir_node  *new_op;
3376         long     am_offs;
3377         ia32_am_flavour_t am_flav = ia32_B;
3378
3379         new_op = func(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3380
3381         if ((am_offs = get_ia32_am_offs_int(node)) != 0) {
3382                 am_flav |= ia32_O;
3383                 add_ia32_am_offs_int(new_op, am_offs);
3384         }
3385
3386         set_ia32_op_type(new_op, ia32_AddrModeD);
3387         set_ia32_am_flavour(new_op, am_flav);
3388         set_ia32_ls_mode(new_op, mode);
3389         set_ia32_frame_ent(new_op, get_ia32_frame_ent(node));
3390         set_ia32_use_frame(new_op);
3391
3392         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
3393
3394         return new_op;
3395 }
3396
3397
3398 /**
3399  * Transforms an ia32_l_XXX into a "real" XXX node
3400  *
3401  * @param env   The transformation environment
3402  * @return the created ia32 XXX node
3403  */
3404 #define GEN_LOWERED_OP(op)                                                \
3405         static ir_node *gen_ia32_l_##op(ir_node *node) {                      \
3406                 return gen_binop(node, get_binop_left(node),                      \
3407                                  get_binop_right(node), new_rd_ia32_##op,0);      \
3408         }
3409
3410 #define GEN_LOWERED_x87_OP(op)                                                 \
3411         static ir_node *gen_ia32_l_##op(ir_node *node) {                           \
3412                 ir_node *new_op;                                                       \
3413                 new_op = gen_binop_x87_float(node, get_binop_left(node),               \
3414                                              get_binop_right(node), new_rd_ia32_##op); \
3415                 return new_op;                                                         \
3416         }
3417
3418 #define GEN_LOWERED_UNOP(op)                                                   \
3419         static ir_node *gen_ia32_l_##op(ir_node *node) {\
3420                 return gen_unop(node, get_unop_op(node), new_rd_ia32_##op);       \
3421         }
3422
3423 #define GEN_LOWERED_SHIFT_OP(op)                                               \
3424         static ir_node *gen_ia32_l_##op(ir_node *node) {\
3425                 return gen_shift_binop(node, get_binop_left(node),                \
3426                                        get_binop_right(node), new_rd_ia32_##op);       \
3427         }
3428
3429 #define GEN_LOWERED_LOAD(op)                                   \
3430         static ir_node *gen_ia32_l_##op(ir_node *node) {           \
3431                 return gen_lowered_Load(node, new_rd_ia32_##op);       \
3432         }
3433
3434 #define GEN_LOWERED_STORE(op)                                \
3435         static ir_node *gen_ia32_l_##op(ir_node *node) {         \
3436                 return gen_lowered_Store(node, new_rd_ia32_##op);    \
3437         }
3438
3439 GEN_LOWERED_OP(Adc)
3440 GEN_LOWERED_OP(Add)
3441 GEN_LOWERED_OP(Sbb)
3442 GEN_LOWERED_OP(Sub)
3443 GEN_LOWERED_OP(IMul)
3444 GEN_LOWERED_OP(Xor)
3445 GEN_LOWERED_x87_OP(vfprem)
3446 GEN_LOWERED_x87_OP(vfmul)
3447 GEN_LOWERED_x87_OP(vfsub)
3448
3449 GEN_LOWERED_UNOP(Neg)
3450
3451 GEN_LOWERED_LOAD(vfild)
3452 GEN_LOWERED_LOAD(Load)
3453 // GEN_LOWERED_STORE(vfist) TODO
3454 GEN_LOWERED_STORE(Store)
3455
3456 static ir_node *gen_ia32_l_vfdiv(ir_node *node) {
3457         ir_node  *block     = be_transform_node(get_nodes_block(node));
3458         ir_node  *left      = get_binop_left(node);
3459         ir_node  *new_left  = be_transform_node(left);
3460         ir_node  *right     = get_binop_right(node);
3461         ir_node  *new_right = be_transform_node(right);
3462         ir_node  *noreg     = ia32_new_NoReg_gp(env_cg);
3463         ir_graph *irg       = current_ir_graph;
3464         dbg_info *dbgi      = get_irn_dbg_info(node);
3465         ir_node  *fpcw      = get_fpcw();
3466         ir_node  *vfdiv;
3467
3468         vfdiv = new_rd_ia32_vfdiv(dbgi, irg, block, noreg, noreg, new_left,
3469                                   new_right, new_NoMem(), fpcw);
3470         clear_ia32_commutative(vfdiv);
3471         set_ia32_am_support(vfdiv, ia32_am_Source, ia32_am_binary);
3472
3473         SET_IA32_ORIG_NODE(vfdiv, ia32_get_old_node_name(env_cg, node));
3474
3475         return vfdiv;
3476 }
3477
3478 /**
3479  * Transforms a l_MulS into a "real" MulS node.
3480  *
3481  * @param env   The transformation environment
3482  * @return the created ia32 Mul node
3483  */
3484 static ir_node *gen_ia32_l_Mul(ir_node *node) {
3485         ir_node  *block     = be_transform_node(get_nodes_block(node));
3486         ir_node  *left      = get_binop_left(node);
3487         ir_node  *new_left  = be_transform_node(left);
3488         ir_node  *right     = get_binop_right(node);
3489         ir_node  *new_right = be_transform_node(right);
3490         ir_node  *noreg     = ia32_new_NoReg_gp(env_cg);
3491         ir_graph *irg       = current_ir_graph;
3492         dbg_info *dbgi      = get_irn_dbg_info(node);
3493
3494         /* l_Mul is already a mode_T node, so we create the Mul in the normal way   */
3495         /* and then skip the result Proj, because all needed Projs are already there. */
3496         ir_node *muls = new_rd_ia32_Mul(dbgi, irg, block, noreg, noreg, new_left,
3497                                         new_right, new_NoMem());
3498         clear_ia32_commutative(muls);
3499         set_ia32_am_support(muls, ia32_am_Source, ia32_am_binary);
3500
3501         SET_IA32_ORIG_NODE(muls, ia32_get_old_node_name(env_cg, node));
3502
3503         return muls;
3504 }
3505
3506 GEN_LOWERED_SHIFT_OP(Shl)
3507 GEN_LOWERED_SHIFT_OP(Shr)
3508 GEN_LOWERED_SHIFT_OP(Sar)
3509
3510 /**
3511  * Transforms a l_ShlD/l_ShrD into a ShlD/ShrD. Those nodes have 3 data inputs:
3512  * op1 - target to be shifted
3513  * op2 - contains bits to be shifted into target
3514  * op3 - shift count
3515  * Only op3 can be an immediate.
3516  */
3517 static ir_node *gen_lowered_64bit_shifts(ir_node *node, ir_node *op1,
3518                                          ir_node *op2, ir_node *count)
3519 {
3520         ir_node  *block     = be_transform_node(get_nodes_block(node));
3521         ir_node  *new_op1   = be_transform_node(op1);
3522         ir_node  *new_op2   = be_transform_node(op2);
3523         ir_node  *new_count = be_transform_node(count);
3524         ir_node  *new_op    = NULL;
3525         ir_graph *irg       = current_ir_graph;
3526         dbg_info *dbgi      = get_irn_dbg_info(node);
3527         ir_node  *noreg     = ia32_new_NoReg_gp(env_cg);
3528         ir_node  *nomem     = new_NoMem();
3529         ir_node  *imm_op;
3530         tarval   *tv;
3531
3532         assert(! mode_is_float(get_irn_mode(node)) && "Shift/Rotate with float not supported");
3533
3534         /* Check if immediate optimization is on and */
3535         /* if it's an operation with immediate.      */
3536         imm_op  = (env_cg->opt & IA32_OPT_IMMOPS) ? get_immediate_op(NULL, new_count) : NULL;
3537
3538         /* Limit imm_op within range imm8 */
3539         if (imm_op) {
3540                 tv = get_ia32_Immop_tarval(imm_op);
3541
3542                 if (tv) {
3543                         tv = tarval_mod(tv, new_tarval_from_long(32, get_tarval_mode(tv)));
3544                         set_ia32_Immop_tarval(imm_op, tv);
3545                 }
3546                 else {
3547                         imm_op = NULL;
3548                 }
3549         }
3550
3551         /* integer operations */
3552         if (imm_op) {
3553                 /* This is ShiftD with const */
3554                 DB((dbg, LEVEL_1, "ShiftD with immediate ..."));
3555
3556                 if (is_ia32_l_ShlD(node))
3557                         new_op = new_rd_ia32_ShlD(dbgi, irg, block, noreg, noreg,
3558                                                   new_op1, new_op2, noreg, nomem);
3559                 else
3560                         new_op = new_rd_ia32_ShrD(dbgi, irg, block, noreg, noreg,
3561                                                   new_op1, new_op2, noreg, nomem);
3562                 copy_ia32_Immop_attr(new_op, imm_op);
3563         }
3564         else {
3565                 /* This is a normal ShiftD */
3566                 DB((dbg, LEVEL_1, "ShiftD binop ..."));
3567                 if (is_ia32_l_ShlD(node))
3568                         new_op = new_rd_ia32_ShlD(dbgi, irg, block, noreg, noreg,
3569                                                   new_op1, new_op2, new_count, nomem);
3570                 else
3571                         new_op = new_rd_ia32_ShrD(dbgi, irg, block, noreg, noreg,
3572                                                   new_op1, new_op2, new_count, nomem);
3573         }
3574
3575         /* set AM support */
3576         set_ia32_am_support(new_op, ia32_am_Dest, ia32_am_binary);
3577
3578         SET_IA32_ORIG_NODE(new_op, ia32_get_old_node_name(env_cg, node));
3579
3580         set_ia32_emit_cl(new_op);
3581
3582         return new_op;
3583 }
3584
3585 static ir_node *gen_ia32_l_ShlD(ir_node *node) {
3586         return gen_lowered_64bit_shifts(node, get_irn_n(node, 0),
3587                                         get_irn_n(node, 1), get_irn_n(node, 2));
3588 }
3589
3590 static ir_node *gen_ia32_l_ShrD(ir_node *node) {
3591         return gen_lowered_64bit_shifts(node, get_irn_n(node, 0),
3592                                         get_irn_n(node, 1), get_irn_n(node, 2));
3593 }
3594
3595 /**
3596  * In case SSE Unit is used, the node is transformed into a vfst + xLoad.
3597  */
3598 static ir_node *gen_ia32_l_X87toSSE(ir_node *node) {
3599         ir_node         *block   = be_transform_node(get_nodes_block(node));
3600         ir_node         *val     = get_irn_n(node, 1);
3601         ir_node         *new_val = be_transform_node(val);
3602         ia32_code_gen_t *cg      = env_cg;
3603         ir_node         *res     = NULL;
3604         ir_graph        *irg     = current_ir_graph;
3605         dbg_info        *dbgi;
3606         ir_node         *noreg, *new_ptr, *new_mem;
3607         ir_node         *ptr, *mem;
3608
3609         if (USE_SSE2(cg)) {
3610                 return new_val;
3611         }
3612
3613         mem     = get_irn_n(node, 2);
3614         new_mem = be_transform_node(mem);
3615         ptr     = get_irn_n(node, 0);
3616         new_ptr = be_transform_node(ptr);
3617         noreg   = ia32_new_NoReg_gp(cg);
3618         dbgi    = get_irn_dbg_info(node);
3619
3620         /* Store x87 -> MEM */
3621         res = new_rd_ia32_vfst(dbgi, irg, block, new_ptr, noreg, new_val, new_mem, get_ia32_ls_mode(node));
3622         set_ia32_frame_ent(res, get_ia32_frame_ent(node));
3623         set_ia32_use_frame(res);
3624         set_ia32_ls_mode(res, get_ia32_ls_mode(node));
3625         set_ia32_am_flavour(res, ia32_B);
3626         set_ia32_op_type(res, ia32_AddrModeD);
3627
3628         /* Load MEM -> SSE */
3629         res = new_rd_ia32_xLoad(dbgi, irg, block, new_ptr, noreg, res);
3630         set_ia32_frame_ent(res, get_ia32_frame_ent(node));
3631         set_ia32_use_frame(res);
3632         set_ia32_ls_mode(res, get_ia32_ls_mode(node));
3633         set_ia32_am_flavour(res, ia32_B);
3634         set_ia32_op_type(res, ia32_AddrModeS);
3635         res = new_rd_Proj(dbgi, irg, block, res, mode_xmm, pn_ia32_xLoad_res);
3636
3637         return res;
3638 }
3639
3640 /**
3641  * In case SSE Unit is used, the node is transformed into a xStore + vfld.
3642  */
3643 static ir_node *gen_ia32_l_SSEtoX87(ir_node *node) {
3644         ir_node         *block   = be_transform_node(get_nodes_block(node));
3645         ir_node         *val     = get_irn_n(node, 1);
3646         ir_node         *new_val = be_transform_node(val);
3647         ia32_code_gen_t *cg      = env_cg;
3648         ir_graph        *irg     = current_ir_graph;
3649         ir_node         *res     = NULL;
3650         ir_entity       *fent    = get_ia32_frame_ent(node);
3651         ir_mode         *lsmode  = get_ia32_ls_mode(node);
3652         int             offs     = 0;
3653         ir_node         *noreg, *new_ptr, *new_mem;
3654         ir_node         *ptr, *mem;
3655         dbg_info        *dbgi;
3656
3657         if (! USE_SSE2(cg)) {
3658                 /* SSE unit is not used -> skip this node. */
3659                 return new_val;
3660         }
3661
3662         ptr     = get_irn_n(node, 0);
3663         new_ptr = be_transform_node(ptr);
3664         mem     = get_irn_n(node, 2);
3665         new_mem = be_transform_node(mem);
3666         noreg   = ia32_new_NoReg_gp(cg);
3667         dbgi    = get_irn_dbg_info(node);
3668
3669         /* Store SSE -> MEM */
3670         if (is_ia32_xLoad(skip_Proj(new_val))) {
3671                 ir_node *ld = skip_Proj(new_val);
3672
3673                 /* we can vfld the value directly into the fpu */
3674                 fent = get_ia32_frame_ent(ld);
3675                 ptr  = get_irn_n(ld, 0);
3676                 offs = get_ia32_am_offs_int(ld);
3677         } else {
3678                 res = new_rd_ia32_xStore(dbgi, irg, block, new_ptr, noreg, new_val, new_mem);
3679                 set_ia32_frame_ent(res, fent);
3680                 set_ia32_use_frame(res);
3681                 set_ia32_ls_mode(res, lsmode);
3682                 set_ia32_am_flavour(res, ia32_B);
3683                 set_ia32_op_type(res, ia32_AddrModeD);
3684                 mem = res;
3685         }
3686
3687         /* Load MEM -> x87 */
3688         res = new_rd_ia32_vfld(dbgi, irg, block, new_ptr, noreg, new_mem, lsmode);
3689         set_ia32_frame_ent(res, fent);
3690         set_ia32_use_frame(res);
3691         add_ia32_am_offs_int(res, offs);
3692         set_ia32_am_flavour(res, ia32_B);
3693         set_ia32_op_type(res, ia32_AddrModeS);
3694         res = new_rd_Proj(dbgi, irg, block, res, mode_vfp, pn_ia32_vfld_res);
3695
3696         return res;
3697 }
3698
3699 /*********************************************************
3700  *                  _             _      _
3701  *                 (_)           | |    (_)
3702  *  _ __ ___   __ _ _ _ __     __| |_ __ ___   _____ _ __
3703  * | '_ ` _ \ / _` | | '_ \   / _` | '__| \ \ / / _ \ '__|
3704  * | | | | | | (_| | | | | | | (_| | |  | |\ V /  __/ |
3705  * |_| |_| |_|\__,_|_|_| |_|  \__,_|_|  |_| \_/ \___|_|
3706  *
3707  *********************************************************/
3708
3709 /**
3710  * the BAD transformer.
3711  */
3712 static ir_node *bad_transform(ir_node *node) {
3713         panic("No transform function for %+F available.\n", node);
3714         return NULL;
3715 }
3716
3717 /**
3718  * Transform the Projs of an AddSP.
3719  */
3720 static ir_node *gen_Proj_be_AddSP(ir_node *node) {
3721         ir_node  *block    = be_transform_node(get_nodes_block(node));
3722         ir_node  *pred     = get_Proj_pred(node);
3723         ir_node  *new_pred = be_transform_node(pred);
3724         ir_graph *irg      = current_ir_graph;
3725         dbg_info *dbgi     = get_irn_dbg_info(node);
3726         long     proj      = get_Proj_proj(node);
3727
3728         if (proj == pn_be_AddSP_sp) {
3729                 ir_node *res = new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu,
3730                                            pn_ia32_SubSP_stack);
3731                 arch_set_irn_register(env_cg->arch_env, res, &ia32_gp_regs[REG_ESP]);
3732                 return res;
3733         } else if(proj == pn_be_AddSP_res) {
3734                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu,
3735                                    pn_ia32_SubSP_addr);
3736         } else if (proj == pn_be_AddSP_M) {
3737                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_SubSP_M);
3738         }
3739
3740         assert(0);
3741         return new_rd_Unknown(irg, get_irn_mode(node));
3742 }
3743
3744 /**
3745  * Transform the Projs of a SubSP.
3746  */
3747 static ir_node *gen_Proj_be_SubSP(ir_node *node) {
3748         ir_node  *block    = be_transform_node(get_nodes_block(node));
3749         ir_node  *pred     = get_Proj_pred(node);
3750         ir_node  *new_pred = be_transform_node(pred);
3751         ir_graph *irg      = current_ir_graph;
3752         dbg_info *dbgi     = get_irn_dbg_info(node);
3753         long     proj      = get_Proj_proj(node);
3754
3755         if (proj == pn_be_SubSP_sp) {
3756                 ir_node *res = new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu,
3757                                            pn_ia32_AddSP_stack);
3758                 arch_set_irn_register(env_cg->arch_env, res, &ia32_gp_regs[REG_ESP]);
3759                 return res;
3760         } else if (proj == pn_be_SubSP_M) {
3761                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_AddSP_M);
3762         }
3763
3764         assert(0);
3765         return new_rd_Unknown(irg, get_irn_mode(node));
3766 }
3767
3768 /**
3769  * Transform and renumber the Projs from a Load.
3770  */
3771 static ir_node *gen_Proj_Load(ir_node *node) {
3772         ir_node  *block    = be_transform_node(get_nodes_block(node));
3773         ir_node  *pred     = get_Proj_pred(node);
3774         ir_node  *new_pred = be_transform_node(pred);
3775         ir_graph *irg      = current_ir_graph;
3776         dbg_info *dbgi     = get_irn_dbg_info(node);
3777         long     proj      = get_Proj_proj(node);
3778
3779         /* renumber the proj */
3780         if (is_ia32_Load(new_pred)) {
3781                 if (proj == pn_Load_res) {
3782                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Load_res);
3783                 } else if (proj == pn_Load_M) {
3784                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Load_M);
3785                 }
3786         } else if(is_ia32_Conv_I2I(new_pred)) {
3787                 set_irn_mode(new_pred, mode_T);
3788                 if (proj == pn_Load_res) {
3789                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, 0);
3790                 } else if (proj == pn_Load_M) {
3791                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, 1);
3792                 }
3793         } else if (is_ia32_xLoad(new_pred)) {
3794                 if (proj == pn_Load_res) {
3795                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_xmm, pn_ia32_xLoad_res);
3796                 } else if (proj == pn_Load_M) {
3797                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_xLoad_M);
3798                 }
3799         } else if (is_ia32_vfld(new_pred)) {
3800                 if (proj == pn_Load_res) {
3801                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfld_res);
3802                 } else if (proj == pn_Load_M) {
3803                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfld_M);
3804                 }
3805         }
3806
3807         assert(0);
3808         return new_rd_Unknown(irg, get_irn_mode(node));
3809 }
3810
3811 /**
3812  * Transform and renumber the Projs from a DivMod like instruction.
3813  */
3814 static ir_node *gen_Proj_DivMod(ir_node *node) {
3815         ir_node  *block    = be_transform_node(get_nodes_block(node));
3816         ir_node  *pred     = get_Proj_pred(node);
3817         ir_node  *new_pred = be_transform_node(pred);
3818         ir_graph *irg      = current_ir_graph;
3819         dbg_info *dbgi     = get_irn_dbg_info(node);
3820         ir_mode  *mode     = get_irn_mode(node);
3821         long     proj      = get_Proj_proj(node);
3822
3823         assert(is_ia32_Div(new_pred) || is_ia32_IDiv(new_pred));
3824
3825         switch (get_irn_opcode(pred)) {
3826         case iro_Div:
3827                 switch (proj) {
3828                 case pn_Div_M:
3829                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3830                 case pn_Div_res:
3831                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_div_res);
3832                 default:
3833                         break;
3834                 }
3835                 break;
3836         case iro_Mod:
3837                 switch (proj) {
3838                 case pn_Mod_M:
3839                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3840                 case pn_Mod_res:
3841                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_mod_res);
3842                 default:
3843                         break;
3844                 }
3845                 break;
3846         case iro_DivMod:
3847                 switch (proj) {
3848                 case pn_DivMod_M:
3849                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_Div_M);
3850                 case pn_DivMod_res_div:
3851                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_div_res);
3852                 case pn_DivMod_res_mod:
3853                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_Iu, pn_ia32_Div_mod_res);
3854                 default:
3855                         break;
3856                 }
3857                 break;
3858         default:
3859                 break;
3860         }
3861
3862         assert(0);
3863         return new_rd_Unknown(irg, mode);
3864 }
3865
3866 /**
3867  * Transform and renumber the Projs from a CopyB.
3868  */
3869 static ir_node *gen_Proj_CopyB(ir_node *node) {
3870         ir_node  *block    = be_transform_node(get_nodes_block(node));
3871         ir_node  *pred     = get_Proj_pred(node);
3872         ir_node  *new_pred = be_transform_node(pred);
3873         ir_graph *irg      = current_ir_graph;
3874         dbg_info *dbgi     = get_irn_dbg_info(node);
3875         ir_mode  *mode     = get_irn_mode(node);
3876         long     proj      = get_Proj_proj(node);
3877
3878         switch(proj) {
3879         case pn_CopyB_M_regular:
3880                 if (is_ia32_CopyB_i(new_pred)) {
3881                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_CopyB_i_M);
3882                 } else if (is_ia32_CopyB(new_pred)) {
3883                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_CopyB_M);
3884                 }
3885                 break;
3886         default:
3887                 break;
3888         }
3889
3890         assert(0);
3891         return new_rd_Unknown(irg, mode);
3892 }
3893
3894 /**
3895  * Transform and renumber the Projs from a vfdiv.
3896  */
3897 static ir_node *gen_Proj_l_vfdiv(ir_node *node) {
3898         ir_node  *block    = be_transform_node(get_nodes_block(node));
3899         ir_node  *pred     = get_Proj_pred(node);
3900         ir_node  *new_pred = be_transform_node(pred);
3901         ir_graph *irg      = current_ir_graph;
3902         dbg_info *dbgi     = get_irn_dbg_info(node);
3903         ir_mode  *mode     = get_irn_mode(node);
3904         long     proj      = get_Proj_proj(node);
3905
3906         switch (proj) {
3907         case pn_ia32_l_vfdiv_M:
3908                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfdiv_M);
3909         case pn_ia32_l_vfdiv_res:
3910                 return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfdiv_res);
3911         default:
3912                 assert(0);
3913         }
3914
3915         return new_rd_Unknown(irg, mode);
3916 }
3917
3918 /**
3919  * Transform and renumber the Projs from a Quot.
3920  */
3921 static ir_node *gen_Proj_Quot(ir_node *node) {
3922         ir_node  *block    = be_transform_node(get_nodes_block(node));
3923         ir_node  *pred     = get_Proj_pred(node);
3924         ir_node  *new_pred = be_transform_node(pred);
3925         ir_graph *irg      = current_ir_graph;
3926         dbg_info *dbgi     = get_irn_dbg_info(node);
3927         ir_mode  *mode     = get_irn_mode(node);
3928         long     proj      = get_Proj_proj(node);
3929
3930         switch(proj) {
3931         case pn_Quot_M:
3932                 if (is_ia32_xDiv(new_pred)) {
3933                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_xDiv_M);
3934                 } else if (is_ia32_vfdiv(new_pred)) {
3935                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_M, pn_ia32_vfdiv_M);
3936                 }
3937                 break;
3938         case pn_Quot_res:
3939                 if (is_ia32_xDiv(new_pred)) {
3940                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_xmm, pn_ia32_xDiv_res);
3941                 } else if (is_ia32_vfdiv(new_pred)) {
3942                         return new_rd_Proj(dbgi, irg, block, new_pred, mode_vfp, pn_ia32_vfdiv_res);
3943                 }
3944                 break;
3945         default:
3946                 break;
3947         }
3948
3949         assert(0);
3950         return new_rd_Unknown(irg, mode);
3951 }
3952
3953 /**
3954  * Transform the Thread Local Storage Proj.
3955  */
3956 static ir_node *gen_Proj_tls(ir_node *node) {
3957         ir_node  *block = be_transform_node(get_nodes_block(node));
3958         ir_graph *irg   = current_ir_graph;
3959         dbg_info *dbgi  = NULL;
3960         ir_node  *res   = new_rd_ia32_LdTls(dbgi, irg, block, mode_Iu);
3961
3962         return res;
3963 }
3964
3965 /**
3966  * Transform the Projs from a be_Call.
3967  */
3968 static ir_node *gen_Proj_be_Call(ir_node *node) {
3969         ir_node  *block    = be_transform_node(get_nodes_block(node));
3970         ir_node  *call     = get_Proj_pred(node);
3971         ir_node  *new_call = be_transform_node(call);
3972         ir_graph *irg      = current_ir_graph;
3973         dbg_info *dbgi     = get_irn_dbg_info(node);
3974         long     proj      = get_Proj_proj(node);
3975         ir_mode  *mode     = get_irn_mode(node);
3976         ir_node  *sse_load;
3977         const arch_register_class_t *cls;
3978
3979         /* The following is kinda tricky: If we're using SSE, then we have to
3980          * move the result value of the call in floating point registers to an
3981          * xmm register, we therefore construct a GetST0 -> xLoad sequence
3982          * after the call, we have to make sure to correctly make the
3983          * MemProj and the result Proj use these 2 nodes
3984          */
3985         if (proj == pn_be_Call_M_regular) {
3986                 // get new node for result, are we doing the sse load/store hack?
3987                 ir_node *call_res = be_get_Proj_for_pn(call, pn_be_Call_first_res);
3988                 ir_node *call_res_new;
3989                 ir_node *call_res_pred = NULL;
3990
3991                 if (call_res != NULL) {
3992                         call_res_new  = be_transform_node(call_res);
3993                         call_res_pred = get_Proj_pred(call_res_new);
3994                 }
3995
3996                 if (call_res_pred == NULL || be_is_Call(call_res_pred)) {
3997                         return new_rd_Proj(dbgi, irg, block, new_call, mode_M,
3998                                            pn_be_Call_M_regular);
3999                 } else {
4000                         assert(is_ia32_xLoad(call_res_pred));
4001                         return new_rd_Proj(dbgi, irg, block, call_res_pred, mode_M,
4002                                            pn_ia32_xLoad_M);
4003                 }
4004         }
4005         if (proj == pn_be_Call_first_res && mode_is_float(mode) && USE_SSE2(env_cg)) {
4006                 ir_node *fstp;
4007                 ir_node *frame = get_irg_frame(irg);
4008                 ir_node *noreg = ia32_new_NoReg_gp(env_cg);
4009                 //ir_node *p;
4010                 ir_node *call_mem = be_get_Proj_for_pn(call, pn_be_Call_M_regular);
4011                 ir_node *call_res;
4012
4013                 /* in case there is no memory output: create one to serialize the copy
4014                    FPU -> SSE */
4015                 call_mem = new_rd_Proj(dbgi, irg, block, new_call, mode_M,
4016                                        pn_be_Call_M_regular);
4017                 call_res = new_rd_Proj(dbgi, irg, block, new_call, mode,
4018                                        pn_be_Call_first_res);
4019
4020                 /* store st(0) onto stack */
4021                 fstp = new_rd_ia32_vfst(dbgi, irg, block, frame, noreg, call_mem,
4022                                         call_res, mode);
4023                 set_ia32_op_type(fstp, ia32_AddrModeD);
4024                 set_ia32_use_frame(fstp);
4025                 set_ia32_am_flavour(fstp, ia32_am_B);
4026
4027                 /* load into SSE register */
4028                 sse_load = new_rd_ia32_xLoad(dbgi, irg, block, frame, noreg, fstp);
4029                 set_ia32_ls_mode(sse_load, mode);
4030                 set_ia32_op_type(sse_load, ia32_AddrModeS);
4031                 set_ia32_use_frame(sse_load);
4032                 set_ia32_am_flavour(sse_load, ia32_am_B);
4033
4034                 sse_load = new_rd_Proj(dbgi, irg, block, sse_load, mode_xmm,
4035                                        pn_ia32_xLoad_res);
4036
4037 #if 0
4038                 /* now: create new Keep whith all former ins and one additional in - the result Proj */
4039
4040                 /* get a Proj representing a caller save register */
4041                 p = be_get_Proj_for_pn(call, pn_be_Call_first_res + 1);
4042                 assert(is_Proj(p) && "Proj expected.");
4043
4044                 /* user of the the proj is the Keep */
4045                 p = get_edge_src_irn(get_irn_out_edge_first(p));
4046                 assert(be_is_Keep(p) && "Keep expected.");
4047 #endif
4048
4049                 return sse_load;
4050         }
4051
4052         /* transform call modes */
4053         if (mode_is_data(mode)) {
4054                 cls = arch_get_irn_reg_class(env_cg->arch_env, node, -1);
4055                 mode = cls->mode;
4056         }
4057
4058         return new_rd_Proj(dbgi, irg, block, new_call, mode, proj);
4059 }
4060
4061 /**
4062  * Transform the Projs from a Cmp.
4063  */
4064 static ir_node *gen_Proj_Cmp(ir_node *node)
4065 {
4066         /* normally Cmps are processed when looking at Cond nodes, but this case
4067          * can happen in complicated Psi conditions */
4068
4069         ir_node  *cmp       = get_Proj_pred(node);
4070         long      pnc       = get_Proj_proj(node);
4071         ir_node  *cmp_left  = get_Cmp_left(cmp);
4072         ir_node  *cmp_right = get_Cmp_right(cmp);
4073         ir_mode  *cmp_mode  = get_irn_mode(cmp_left);
4074         dbg_info *dbgi      = get_irn_dbg_info(cmp);
4075         ir_node  *block     = be_transform_node(get_nodes_block(node));
4076         ir_node  *res;
4077
4078         assert(!mode_is_float(cmp_mode));
4079
4080         if(!mode_is_signed(cmp_mode)) {
4081                 pnc |= ia32_pn_Cmp_Unsigned;
4082         }
4083
4084         res = create_set(pnc, cmp_left, cmp_right, dbgi, block);
4085         SET_IA32_ORIG_NODE(res, ia32_get_old_node_name(env_cg, cmp));
4086
4087         return res;
4088 }
4089
4090 /**
4091  * Transform and potentially renumber Proj nodes.
4092  */
4093 static ir_node *gen_Proj(ir_node *node) {
4094         ir_graph *irg  = current_ir_graph;
4095         dbg_info *dbgi = get_irn_dbg_info(node);
4096         ir_node  *pred = get_Proj_pred(node);
4097         long     proj  = get_Proj_proj(node);
4098
4099         if (is_Store(pred) || be_is_FrameStore(pred)) {
4100                 if (proj == pn_Store_M) {
4101                         return be_transform_node(pred);
4102                 } else {
4103                         assert(0);
4104                         return new_r_Bad(irg);
4105                 }
4106         } else if (is_Load(pred) || be_is_FrameLoad(pred)) {
4107                 return gen_Proj_Load(node);
4108         } else if (is_Div(pred) || is_Mod(pred) || is_DivMod(pred)) {
4109                 return gen_Proj_DivMod(node);
4110         } else if (is_CopyB(pred)) {
4111                 return gen_Proj_CopyB(node);
4112         } else if (is_Quot(pred)) {
4113                 return gen_Proj_Quot(node);
4114         } else if (is_ia32_l_vfdiv(pred)) {
4115                 return gen_Proj_l_vfdiv(node);
4116         } else if (be_is_SubSP(pred)) {
4117                 return gen_Proj_be_SubSP(node);
4118         } else if (be_is_AddSP(pred)) {
4119                 return gen_Proj_be_AddSP(node);
4120         } else if (be_is_Call(pred)) {
4121                 return gen_Proj_be_Call(node);
4122         } else if (is_Cmp(pred)) {
4123                 return gen_Proj_Cmp(node);
4124         } else if (get_irn_op(pred) == op_Start) {
4125                 if (proj == pn_Start_X_initial_exec) {
4126                         ir_node *block = get_nodes_block(pred);
4127                         ir_node *jump;
4128
4129                         /* we exchange the ProjX with a jump */
4130                         block = be_transform_node(block);
4131                         jump  = new_rd_Jmp(dbgi, irg, block);
4132                         return jump;
4133                 }
4134                 if (node == be_get_old_anchor(anchor_tls)) {
4135                         return gen_Proj_tls(node);
4136                 }
4137 #ifdef FIRM_EXT_GRS
4138         } else if(!is_ia32_irn(pred)) { // Quick hack for SIMD optimization
4139 #else
4140         } else {
4141 #endif
4142                 ir_node *new_pred = be_transform_node(pred);
4143                 ir_node *block    = be_transform_node(get_nodes_block(node));
4144                 ir_mode *mode     = get_irn_mode(node);
4145                 if (mode_needs_gp_reg(mode)) {
4146                         ir_node *new_proj = new_r_Proj(irg, block, new_pred, mode_Iu,
4147                                                        get_Proj_proj(node));
4148 #ifdef DEBUG_libfirm
4149                         new_proj->node_nr = node->node_nr;
4150 #endif
4151                         return new_proj;
4152                 }
4153         }
4154
4155         return be_duplicate_node(node);
4156 }
4157
4158 /**
4159  * Enters all transform functions into the generic pointer
4160  */
4161 static void register_transformers(void)
4162 {
4163         ir_op *op_Mulh;
4164
4165         /* first clear the generic function pointer for all ops */
4166         clear_irp_opcodes_generic_func();
4167
4168 #define GEN(a)   { be_transform_func *func = gen_##a; op_##a->ops.generic = (op_func) func; }
4169 #define BAD(a)   op_##a->ops.generic = (op_func)bad_transform
4170
4171         GEN(Add);
4172         GEN(Sub);
4173         GEN(Mul);
4174         GEN(And);
4175         GEN(Or);
4176         GEN(Eor);
4177
4178         GEN(Shl);
4179         GEN(Shr);
4180         GEN(Shrs);
4181         GEN(Rot);
4182
4183         GEN(Quot);
4184
4185         GEN(Div);
4186         GEN(Mod);
4187         GEN(DivMod);
4188
4189         GEN(Minus);
4190         GEN(Conv);
4191         GEN(Abs);
4192         GEN(Not);
4193
4194         GEN(Load);
4195         GEN(Store);
4196         GEN(Cond);
4197
4198         GEN(ASM);
4199         GEN(CopyB);
4200         BAD(Mux);
4201         GEN(Psi);
4202         GEN(Proj);
4203         GEN(Phi);
4204         GEN(IJmp);
4205
4206         /* transform ops from intrinsic lowering */
4207         GEN(ia32_l_Add);
4208         GEN(ia32_l_Adc);
4209         GEN(ia32_l_Sub);
4210         GEN(ia32_l_Sbb);
4211         GEN(ia32_l_Neg);
4212         GEN(ia32_l_Mul);
4213         GEN(ia32_l_Xor);
4214         GEN(ia32_l_IMul);
4215         GEN(ia32_l_Shl);
4216         GEN(ia32_l_Shr);
4217         GEN(ia32_l_Sar);
4218         GEN(ia32_l_ShlD);
4219         GEN(ia32_l_ShrD);
4220         GEN(ia32_l_vfdiv);
4221         GEN(ia32_l_vfprem);
4222         GEN(ia32_l_vfmul);
4223         GEN(ia32_l_vfsub);
4224         GEN(ia32_l_vfild);
4225         GEN(ia32_l_Load);
4226         /* GEN(ia32_l_vfist); TODO */
4227         GEN(ia32_l_Store);
4228         GEN(ia32_l_X87toSSE);
4229         GEN(ia32_l_SSEtoX87);
4230
4231         GEN(Const);
4232         GEN(SymConst);
4233
4234         /* we should never see these nodes */
4235         BAD(Raise);
4236         BAD(Sel);
4237         BAD(InstOf);
4238         BAD(Cast);
4239         BAD(Free);
4240         BAD(Tuple);
4241         BAD(Id);
4242         //BAD(Bad);
4243         BAD(Confirm);
4244         BAD(Filter);
4245         BAD(CallBegin);
4246         BAD(EndReg);
4247         BAD(EndExcept);
4248
4249         /* handle generic backend nodes */
4250         GEN(be_FrameAddr);
4251         //GEN(be_Call);
4252         GEN(be_Return);
4253         GEN(be_FrameLoad);
4254         GEN(be_FrameStore);
4255         GEN(be_StackParam);
4256         GEN(be_AddSP);
4257         GEN(be_SubSP);
4258         GEN(be_Copy);
4259
4260         /* set the register for all Unknown nodes */
4261         GEN(Unknown);
4262
4263         op_Mulh = get_op_Mulh();
4264         if (op_Mulh)
4265                 GEN(Mulh);
4266
4267 #undef GEN
4268 #undef BAD
4269 }
4270
4271 /**
4272  * Pre-transform all unknown and noreg nodes.
4273  */
4274 static void ia32_pretransform_node(void *arch_cg) {
4275         ia32_code_gen_t *cg = arch_cg;
4276
4277         cg->unknown_gp  = be_pre_transform_node(cg->unknown_gp);
4278         cg->unknown_vfp = be_pre_transform_node(cg->unknown_vfp);
4279         cg->unknown_xmm = be_pre_transform_node(cg->unknown_xmm);
4280         cg->noreg_gp    = be_pre_transform_node(cg->noreg_gp);
4281         cg->noreg_vfp   = be_pre_transform_node(cg->noreg_vfp);
4282         cg->noreg_xmm   = be_pre_transform_node(cg->noreg_xmm);
4283         get_fpcw();
4284 }
4285
4286 static
4287 void add_missing_keep_walker(ir_node *node, void *data)
4288 {
4289         int              n_outs, i;
4290         unsigned         found_projs = 0;
4291         const ir_edge_t *edge;
4292         ir_mode         *mode = get_irn_mode(node);
4293         ir_node         *last_keep;
4294         (void) data;
4295         if(mode != mode_T)
4296                 return;
4297         if(!is_ia32_irn(node))
4298                 return;
4299
4300         n_outs = get_ia32_n_res(node);
4301         if(n_outs <= 0)
4302                 return;
4303         if(is_ia32_SwitchJmp(node))
4304                 return;
4305
4306         assert(n_outs < (int) sizeof(unsigned) * 8);
4307         foreach_out_edge(node, edge) {
4308                 ir_node *proj = get_edge_src_irn(edge);
4309                 int      pn   = get_Proj_proj(proj);
4310
4311                 assert(pn < n_outs);
4312                 found_projs |= 1 << pn;
4313         }
4314
4315
4316         /* are keeps missing? */
4317         last_keep = NULL;
4318         for(i = 0; i < n_outs; ++i) {
4319                 ir_node                     *block;
4320                 ir_node                     *in[1];
4321                 const arch_register_req_t   *req;
4322                 const arch_register_class_t *class;
4323
4324                 if(found_projs & (1 << i)) {
4325                         continue;
4326                 }
4327
4328                 req   = get_ia32_out_req(node, i);
4329                 class = req->cls;
4330                 if(class == NULL) {
4331                         continue;
4332                 }
4333
4334                 block = get_nodes_block(node);
4335                 in[0] = new_r_Proj(current_ir_graph, block, node,
4336                                    arch_register_class_mode(class), i);
4337                 if(last_keep != NULL) {
4338                         be_Keep_add_node(last_keep, class, in[0]);
4339                 } else {
4340                         last_keep = be_new_Keep(class, current_ir_graph, block, 1, in);
4341                 }
4342         }
4343 }
4344
4345 /**
4346  * Adds missing keeps to nodes
4347  */
4348 static
4349 void add_missing_keeps(ia32_code_gen_t *cg)
4350 {
4351         ir_graph *irg = be_get_birg_irg(cg->birg);
4352         irg_walk_graph(irg, add_missing_keep_walker, NULL, NULL);
4353 }
4354
4355 /* do the transformation */
4356 void ia32_transform_graph(ia32_code_gen_t *cg) {
4357         register_transformers();
4358         env_cg = cg;
4359         initial_fpcw = NULL;
4360         be_transform_graph(cg->birg, ia32_pretransform_node, cg);
4361         edges_verify(cg->irg);
4362         add_missing_keeps(cg);
4363         edges_verify(cg->irg);
4364 }
4365
4366 void ia32_init_transform(void)
4367 {
4368         FIRM_DBG_REGISTER(dbg, "firm.be.ia32.transform");
4369 }