Do not touch deleted nodes.
[libfirm] / ir / be / ia32 / ia32_transform.c
1 /*
2  * Copyright (C) 1995-2011 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       This file implements the IR transformation from firm into
23  *              ia32-Firm.
24  * @author      Christian Wuerdig, Matthias Braun
25  * @version     $Id$
26  */
27 #include "config.h"
28
29 #include <limits.h>
30 #include <stdbool.h>
31
32 #include "irargs_t.h"
33 #include "irnode_t.h"
34 #include "irgraph_t.h"
35 #include "irmode_t.h"
36 #include "iropt_t.h"
37 #include "irop_t.h"
38 #include "irprog_t.h"
39 #include "iredges_t.h"
40 #include "irgmod.h"
41 #include "ircons.h"
42 #include "irgwalk.h"
43 #include "irprintf.h"
44 #include "debug.h"
45 #include "irdom.h"
46 #include "iropt.h"
47 #include "error.h"
48 #include "array_t.h"
49 #include "heights.h"
50
51 #include "../benode.h"
52 #include "../besched.h"
53 #include "../beabi.h"
54 #include "../beutil.h"
55 #include "../beirg.h"
56 #include "../betranshlp.h"
57 #include "../be_t.h"
58
59 #include "bearch_ia32_t.h"
60 #include "ia32_common_transform.h"
61 #include "ia32_nodes_attr.h"
62 #include "ia32_transform.h"
63 #include "ia32_new_nodes.h"
64 #include "ia32_dbg_stat.h"
65 #include "ia32_optimize.h"
66 #include "ia32_address_mode.h"
67 #include "ia32_architecture.h"
68
69 #include "gen_ia32_regalloc_if.h"
70
71 /* define this to construct SSE constants instead of load them */
72 #undef CONSTRUCT_SSE_CONST
73
74
75 #define SFP_SIGN   "0x80000000"
76 #define DFP_SIGN   "0x8000000000000000"
77 #define SFP_ABS    "0x7FFFFFFF"
78 #define DFP_ABS    "0x7FFFFFFFFFFFFFFF"
79 #define DFP_INTMAX "9223372036854775807"
80 #define ULL_BIAS   "18446744073709551616"
81
82 #define ENT_SFP_SIGN "C_ia32_sfp_sign"
83 #define ENT_DFP_SIGN "C_ia32_dfp_sign"
84 #define ENT_SFP_ABS  "C_ia32_sfp_abs"
85 #define ENT_DFP_ABS  "C_ia32_dfp_abs"
86 #define ENT_ULL_BIAS "C_ia32_ull_bias"
87
88 #define mode_vfp    (ia32_reg_classes[CLASS_ia32_vfp].mode)
89 #define mode_xmm    (ia32_reg_classes[CLASS_ia32_xmm].mode)
90
91 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
92
93 static ir_node         *old_initial_fpcw = NULL;
94 static ir_node         *initial_fpcw = NULL;
95 int                     ia32_no_pic_adjust;
96
97 typedef ir_node *construct_binop_func(dbg_info *db, ir_node *block,
98         ir_node *base, ir_node *index, ir_node *mem, ir_node *op1,
99         ir_node *op2);
100
101 typedef ir_node *construct_binop_flags_func(dbg_info *db, ir_node *block,
102         ir_node *base, ir_node *index, ir_node *mem, ir_node *op1, ir_node *op2,
103         ir_node *flags);
104
105 typedef ir_node *construct_shift_func(dbg_info *db, ir_node *block,
106         ir_node *op1, ir_node *op2);
107
108 typedef ir_node *construct_binop_dest_func(dbg_info *db, ir_node *block,
109         ir_node *base, ir_node *index, ir_node *mem, ir_node *op);
110
111 typedef ir_node *construct_unop_dest_func(dbg_info *db, ir_node *block,
112         ir_node *base, ir_node *index, ir_node *mem);
113
114 typedef ir_node *construct_binop_float_func(dbg_info *db, ir_node *block,
115         ir_node *base, ir_node *index, ir_node *mem, ir_node *op1, ir_node *op2,
116         ir_node *fpcw);
117
118 typedef ir_node *construct_unop_func(dbg_info *db, ir_node *block, ir_node *op);
119
120 static ir_node *create_immediate_or_transform(ir_node *node,
121                                               char immediate_constraint_type);
122
123 static ir_node *create_I2I_Conv(ir_mode *src_mode, ir_mode *tgt_mode,
124                                 dbg_info *dbgi, ir_node *block,
125                                 ir_node *op, ir_node *orig_node);
126
127 /* its enough to have those once */
128 static ir_node *nomem, *noreg_GP;
129
130 /** a list to postprocess all calls */
131 static ir_node **call_list;
132 static ir_type **call_types;
133
134 /** Return non-zero is a node represents the 0 constant. */
135 static bool is_Const_0(ir_node *node)
136 {
137         return is_Const(node) && is_Const_null(node);
138 }
139
140 /** Return non-zero is a node represents the 1 constant. */
141 static bool is_Const_1(ir_node *node)
142 {
143         return is_Const(node) && is_Const_one(node);
144 }
145
146 /** Return non-zero is a node represents the -1 constant. */
147 static bool is_Const_Minus_1(ir_node *node)
148 {
149         return is_Const(node) && is_Const_all_one(node);
150 }
151
152 /**
153  * returns true if constant can be created with a simple float command
154  */
155 static bool is_simple_x87_Const(ir_node *node)
156 {
157         ir_tarval *tv = get_Const_tarval(node);
158         if (tarval_is_null(tv) || tarval_is_one(tv))
159                 return true;
160
161         /* TODO: match all the other float constants */
162         return false;
163 }
164
165 /**
166  * returns true if constant can be created with a simple float command
167  */
168 static bool is_simple_sse_Const(ir_node *node)
169 {
170         ir_tarval *tv   = get_Const_tarval(node);
171         ir_mode   *mode = get_tarval_mode(tv);
172
173         if (mode == mode_F)
174                 return true;
175
176         if (tarval_is_null(tv)
177 #ifdef CONSTRUCT_SSE_CONST
178             || tarval_is_one(tv)
179 #endif
180            )
181                 return true;
182 #ifdef CONSTRUCT_SSE_CONST
183         if (mode == mode_D) {
184                 unsigned val = get_tarval_sub_bits(tv, 0) |
185                         (get_tarval_sub_bits(tv, 1) << 8) |
186                         (get_tarval_sub_bits(tv, 2) << 16) |
187                         (get_tarval_sub_bits(tv, 3) << 24);
188                 if (val == 0)
189                         /* lower 32bit are zero, really a 32bit constant */
190                         return true;
191         }
192 #endif /* CONSTRUCT_SSE_CONST */
193         /* TODO: match all the other float constants */
194         return false;
195 }
196
197 /**
198  * return NoREG or pic_base in case of PIC.
199  * This is necessary as base address for newly created symbols
200  */
201 static ir_node *get_symconst_base(void)
202 {
203         ir_graph *irg = current_ir_graph;
204
205         if (be_get_irg_options(irg)->pic) {
206                 const arch_env_t *arch_env = be_get_irg_arch_env(irg);
207                 return arch_env->impl->get_pic_base(irg);
208         }
209
210         return noreg_GP;
211 }
212
213 /**
214  * Transforms a Const.
215  */
216 static ir_node *gen_Const(ir_node *node)
217 {
218         ir_node  *old_block = get_nodes_block(node);
219         ir_node  *block     = be_transform_node(old_block);
220         dbg_info *dbgi      = get_irn_dbg_info(node);
221         ir_mode  *mode      = get_irn_mode(node);
222
223         assert(is_Const(node));
224
225         if (mode_is_float(mode)) {
226                 ir_node   *res   = NULL;
227                 ir_node   *load;
228                 ir_entity *floatent;
229
230                 if (ia32_cg_config.use_sse2) {
231                         ir_tarval *tv = get_Const_tarval(node);
232                         if (tarval_is_null(tv)) {
233                                 load = new_bd_ia32_xZero(dbgi, block);
234                                 set_ia32_ls_mode(load, mode);
235                                 res  = load;
236 #ifdef CONSTRUCT_SSE_CONST
237                         } else if (tarval_is_one(tv)) {
238                                 int     cnst  = mode == mode_F ? 26 : 55;
239                                 ir_node *imm1 = ia32_create_Immediate(NULL, 0, cnst);
240                                 ir_node *imm2 = ia32_create_Immediate(NULL, 0, 2);
241                                 ir_node *pslld, *psrld;
242
243                                 load = new_bd_ia32_xAllOnes(dbgi, block);
244                                 set_ia32_ls_mode(load, mode);
245                                 pslld = new_bd_ia32_xPslld(dbgi, block, load, imm1);
246                                 set_ia32_ls_mode(pslld, mode);
247                                 psrld = new_bd_ia32_xPsrld(dbgi, block, pslld, imm2);
248                                 set_ia32_ls_mode(psrld, mode);
249                                 res = psrld;
250 #endif /* CONSTRUCT_SSE_CONST */
251                         } else if (mode == mode_F) {
252                                 /* we can place any 32bit constant by using a movd gp, sse */
253                                 unsigned val = get_tarval_sub_bits(tv, 0) |
254                                                (get_tarval_sub_bits(tv, 1) << 8) |
255                                                (get_tarval_sub_bits(tv, 2) << 16) |
256                                                (get_tarval_sub_bits(tv, 3) << 24);
257                                 ir_node *cnst = new_bd_ia32_Const(dbgi, block, NULL, 0, 0, val);
258                                 load = new_bd_ia32_xMovd(dbgi, block, cnst);
259                                 set_ia32_ls_mode(load, mode);
260                                 res = load;
261                         } else {
262                                 ir_node *base;
263 #ifdef CONSTRUCT_SSE_CONST
264                                 if (mode == mode_D) {
265                                         unsigned val = get_tarval_sub_bits(tv, 0) |
266                                                 (get_tarval_sub_bits(tv, 1) << 8) |
267                                                 (get_tarval_sub_bits(tv, 2) << 16) |
268                                                 (get_tarval_sub_bits(tv, 3) << 24);
269                                         if (val == 0) {
270                                                 ir_node *imm32 = ia32_create_Immediate(NULL, 0, 32);
271                                                 ir_node *cnst, *psllq;
272
273                                                 /* fine, lower 32bit are zero, produce 32bit value */
274                                                 val = get_tarval_sub_bits(tv, 4) |
275                                                         (get_tarval_sub_bits(tv, 5) << 8) |
276                                                         (get_tarval_sub_bits(tv, 6) << 16) |
277                                                         (get_tarval_sub_bits(tv, 7) << 24);
278                                                 cnst = new_bd_ia32_Const(dbgi, block, NULL, 0, 0, val);
279                                                 load = new_bd_ia32_xMovd(dbgi, block, cnst);
280                                                 set_ia32_ls_mode(load, mode);
281                                                 psllq = new_bd_ia32_xPsllq(dbgi, block, load, imm32);
282                                                 set_ia32_ls_mode(psllq, mode);
283                                                 res = psllq;
284                                                 goto end;
285                                         }
286                                 }
287 #endif /* CONSTRUCT_SSE_CONST */
288                                 floatent = ia32_create_float_const_entity(node);
289
290                                 base     = get_symconst_base();
291                                 load     = new_bd_ia32_xLoad(dbgi, block, base, noreg_GP, nomem,
292                                                              mode);
293                                 set_ia32_op_type(load, ia32_AddrModeS);
294                                 set_ia32_am_sc(load, floatent);
295                                 arch_add_irn_flags(load, arch_irn_flags_rematerializable);
296                                 res = new_r_Proj(load, mode_xmm, pn_ia32_xLoad_res);
297                         }
298                 } else {
299                         if (is_Const_null(node)) {
300                                 load = new_bd_ia32_vfldz(dbgi, block);
301                                 res  = load;
302                                 set_ia32_ls_mode(load, mode);
303                         } else if (is_Const_one(node)) {
304                                 load = new_bd_ia32_vfld1(dbgi, block);
305                                 res  = load;
306                                 set_ia32_ls_mode(load, mode);
307                         } else {
308                                 ir_mode *ls_mode;
309                                 ir_node *base;
310
311                                 floatent = ia32_create_float_const_entity(node);
312                                 /* create_float_const_ent is smart and sometimes creates
313                                    smaller entities */
314                                 ls_mode  = get_type_mode(get_entity_type(floatent));
315                                 base     = get_symconst_base();
316                                 load     = new_bd_ia32_vfld(dbgi, block, base, noreg_GP, nomem,
317                                                             ls_mode);
318                                 set_ia32_op_type(load, ia32_AddrModeS);
319                                 set_ia32_am_sc(load, floatent);
320                                 arch_add_irn_flags(load, arch_irn_flags_rematerializable);
321                                 res = new_r_Proj(load, mode_vfp, pn_ia32_vfld_res);
322                         }
323                 }
324 #ifdef CONSTRUCT_SSE_CONST
325 end:
326 #endif /* CONSTRUCT_SSE_CONST */
327                 SET_IA32_ORIG_NODE(load, node);
328                 return res;
329         } else { /* non-float mode */
330                 ir_node   *cnst;
331                 ir_tarval *tv = get_Const_tarval(node);
332                 long       val;
333
334                 tv = tarval_convert_to(tv, mode_Iu);
335
336                 if (tv == get_tarval_bad() || tv == get_tarval_undefined() ||
337                     tv == NULL) {
338                         panic("couldn't convert constant tarval (%+F)", node);
339                 }
340                 val = get_tarval_long(tv);
341
342                 cnst = new_bd_ia32_Const(dbgi, block, NULL, 0, 0, val);
343                 SET_IA32_ORIG_NODE(cnst, node);
344
345                 return cnst;
346         }
347 }
348
349 /**
350  * Transforms a SymConst.
351  */
352 static ir_node *gen_SymConst(ir_node *node)
353 {
354         ir_node  *old_block = get_nodes_block(node);
355         ir_node  *block = be_transform_node(old_block);
356         dbg_info *dbgi  = get_irn_dbg_info(node);
357         ir_mode  *mode  = get_irn_mode(node);
358         ir_node  *cnst;
359
360         if (mode_is_float(mode)) {
361                 if (ia32_cg_config.use_sse2)
362                         cnst = new_bd_ia32_xLoad(dbgi, block, noreg_GP, noreg_GP, nomem, mode_E);
363                 else
364                         cnst = new_bd_ia32_vfld(dbgi, block, noreg_GP, noreg_GP, nomem, mode_E);
365                 set_ia32_am_sc(cnst, get_SymConst_entity(node));
366                 set_ia32_use_frame(cnst);
367         } else {
368                 ir_entity *entity;
369
370                 if (get_SymConst_kind(node) != symconst_addr_ent) {
371                         panic("backend only support symconst_addr_ent (at %+F)", node);
372                 }
373                 entity = get_SymConst_entity(node);
374                 if (get_entity_owner(entity) == get_tls_type()) {
375                         ir_node *tls_base = new_bd_ia32_LdTls(NULL, block);
376                         ir_node *lea     = new_bd_ia32_Lea(dbgi, block, tls_base, noreg_GP);
377                         set_ia32_am_sc(lea, entity);
378                         cnst = lea;
379                 } else {
380                         cnst = new_bd_ia32_Const(dbgi, block, entity, 0, 0, 0);
381                 }
382         }
383
384         SET_IA32_ORIG_NODE(cnst, node);
385
386         return cnst;
387 }
388
389 /**
390  * Create a float type for the given mode and cache it.
391  *
392  * @param mode   the mode for the float type (might be integer mode for SSE2 types)
393  * @param align  alignment
394  */
395 static ir_type *ia32_create_float_type(ir_mode *mode, unsigned align)
396 {
397         ir_type *tp;
398
399         assert(align <= 16);
400
401         if (mode == mode_Iu) {
402                 static ir_type *int_Iu[16] = {NULL, };
403
404                 if (int_Iu[align] == NULL) {
405                         int_Iu[align] = tp = new_type_primitive(mode);
406                         /* set the specified alignment */
407                         set_type_alignment_bytes(tp, align);
408                 }
409                 return int_Iu[align];
410         } else if (mode == mode_Lu) {
411                 static ir_type *int_Lu[16] = {NULL, };
412
413                 if (int_Lu[align] == NULL) {
414                         int_Lu[align] = tp = new_type_primitive(mode);
415                         /* set the specified alignment */
416                         set_type_alignment_bytes(tp, align);
417                 }
418                 return int_Lu[align];
419         } else if (mode == mode_F) {
420                 static ir_type *float_F[16] = {NULL, };
421
422                 if (float_F[align] == NULL) {
423                         float_F[align] = tp = new_type_primitive(mode);
424                         /* set the specified alignment */
425                         set_type_alignment_bytes(tp, align);
426                 }
427                 return float_F[align];
428         } else if (mode == mode_D) {
429                 static ir_type *float_D[16] = {NULL, };
430
431                 if (float_D[align] == NULL) {
432                         float_D[align] = tp = new_type_primitive(mode);
433                         /* set the specified alignment */
434                         set_type_alignment_bytes(tp, align);
435                 }
436                 return float_D[align];
437         } else {
438                 static ir_type *float_E[16] = {NULL, };
439
440                 if (float_E[align] == NULL) {
441                         float_E[align] = tp = new_type_primitive(mode);
442                         /* set the specified alignment */
443                         set_type_alignment_bytes(tp, align);
444                 }
445                 return float_E[align];
446         }
447 }
448
449 /**
450  * Create a float[2] array type for the given atomic type.
451  *
452  * @param tp  the atomic type
453  */
454 static ir_type *ia32_create_float_array(ir_type *tp)
455 {
456         ir_mode  *mode = get_type_mode(tp);
457         unsigned align = get_type_alignment_bytes(tp);
458         ir_type  *arr;
459
460         assert(align <= 16);
461
462         if (mode == mode_F) {
463                 static ir_type *float_F[16] = {NULL, };
464
465                 if (float_F[align] != NULL)
466                         return float_F[align];
467                 arr = float_F[align] = new_type_array(1, tp);
468         } else if (mode == mode_D) {
469                 static ir_type *float_D[16] = {NULL, };
470
471                 if (float_D[align] != NULL)
472                         return float_D[align];
473                 arr = float_D[align] = new_type_array(1, tp);
474         } else {
475                 static ir_type *float_E[16] = {NULL, };
476
477                 if (float_E[align] != NULL)
478                         return float_E[align];
479                 arr = float_E[align] = new_type_array(1, tp);
480         }
481         set_type_alignment_bytes(arr, align);
482         set_type_size_bytes(arr, 2 * get_type_size_bytes(tp));
483         set_type_state(arr, layout_fixed);
484         return arr;
485 }
486
487 /* Generates an entity for a known FP const (used for FP Neg + Abs) */
488 ir_entity *ia32_gen_fp_known_const(ia32_known_const_t kct)
489 {
490         static const struct {
491                 const char *ent_name;
492                 const char *cnst_str;
493                 char mode;
494                 unsigned char align;
495         } names [ia32_known_const_max] = {
496                 { ENT_SFP_SIGN, SFP_SIGN,   0, 16 }, /* ia32_SSIGN */
497                 { ENT_DFP_SIGN, DFP_SIGN,   1, 16 }, /* ia32_DSIGN */
498                 { ENT_SFP_ABS,  SFP_ABS,    0, 16 }, /* ia32_SABS */
499                 { ENT_DFP_ABS,  DFP_ABS,    1, 16 }, /* ia32_DABS */
500                 { ENT_ULL_BIAS, ULL_BIAS,   2, 4 }   /* ia32_ULLBIAS */
501         };
502         static ir_entity *ent_cache[ia32_known_const_max];
503
504         const char *ent_name, *cnst_str;
505         ir_type    *tp;
506         ir_entity  *ent;
507         ir_tarval  *tv;
508         ir_mode    *mode;
509
510         ent_name = names[kct].ent_name;
511         if (! ent_cache[kct]) {
512                 cnst_str = names[kct].cnst_str;
513
514                 switch (names[kct].mode) {
515                 case 0:  mode = mode_Iu; break;
516                 case 1:  mode = mode_Lu; break;
517                 default: mode = mode_F;  break;
518                 }
519                 tv  = new_tarval_from_str(cnst_str, strlen(cnst_str), mode);
520                 tp  = ia32_create_float_type(mode, names[kct].align);
521
522                 if (kct == ia32_ULLBIAS)
523                         tp = ia32_create_float_array(tp);
524                 ent = new_entity(get_glob_type(), new_id_from_str(ent_name), tp);
525
526                 set_entity_ld_ident(ent, get_entity_ident(ent));
527                 add_entity_linkage(ent, IR_LINKAGE_CONSTANT);
528                 set_entity_visibility(ent, ir_visibility_private);
529
530                 if (kct == ia32_ULLBIAS) {
531                         ir_initializer_t *initializer = create_initializer_compound(2);
532
533                         set_initializer_compound_value(initializer, 0,
534                                 create_initializer_tarval(get_mode_null(mode)));
535                         set_initializer_compound_value(initializer, 1,
536                                 create_initializer_tarval(tv));
537
538                         set_entity_initializer(ent, initializer);
539                 } else {
540                         set_entity_initializer(ent, create_initializer_tarval(tv));
541                 }
542
543                 /* cache the entry */
544                 ent_cache[kct] = ent;
545         }
546
547         return ent_cache[kct];
548 }
549
550 /**
551  * return true if the node is a Proj(Load) and could be used in source address
552  * mode for another node. Will return only true if the @p other node is not
553  * dependent on the memory of the Load (for binary operations use the other
554  * input here, for unary operations use NULL).
555  */
556 static int ia32_use_source_address_mode(ir_node *block, ir_node *node,
557                                         ir_node *other, ir_node *other2, match_flags_t flags)
558 {
559         ir_node *load;
560         long     pn;
561
562         /* float constants are always available */
563         if (is_Const(node)) {
564                 ir_mode *mode = get_irn_mode(node);
565                 if (mode_is_float(mode)) {
566                         if (ia32_cg_config.use_sse2) {
567                                 if (is_simple_sse_Const(node))
568                                         return 0;
569                         } else {
570                                 if (is_simple_x87_Const(node))
571                                         return 0;
572                         }
573                         if (get_irn_n_edges(node) > 1)
574                                 return 0;
575                         return 1;
576                 }
577         }
578
579         if (!is_Proj(node))
580                 return 0;
581         load = get_Proj_pred(node);
582         pn   = get_Proj_proj(node);
583         if (!is_Load(load) || pn != pn_Load_res)
584                 return 0;
585         if (get_nodes_block(load) != block)
586                 return 0;
587         /* we only use address mode if we're the only user of the load */
588         if (get_irn_n_edges(node) != (flags & match_two_users ? 2 : 1))
589                 return 0;
590         /* in some edge cases with address mode we might reach the load normally
591          * and through some AM sequence, if it is already materialized then we
592          * can't create an AM node from it */
593         if (be_is_transformed(node))
594                 return 0;
595
596         /* don't do AM if other node inputs depend on the load (via mem-proj) */
597         if (other != NULL && ia32_prevents_AM(block, load, other))
598                 return 0;
599
600         if (other2 != NULL && ia32_prevents_AM(block, load, other2))
601                 return 0;
602
603         return 1;
604 }
605
606 typedef struct ia32_address_mode_t ia32_address_mode_t;
607 struct ia32_address_mode_t {
608         ia32_address_t  addr;
609         ir_mode        *ls_mode;
610         ir_node        *mem_proj;
611         ir_node        *am_node;
612         ia32_op_type_t  op_type;
613         ir_node        *new_op1;
614         ir_node        *new_op2;
615         op_pin_state    pinned;
616         unsigned        commutative  : 1;
617         unsigned        ins_permuted : 1;
618 };
619
620 static void build_address_ptr(ia32_address_t *addr, ir_node *ptr, ir_node *mem)
621 {
622         /* construct load address */
623         memset(addr, 0, sizeof(addr[0]));
624         ia32_create_address_mode(addr, ptr, ia32_create_am_normal);
625
626         addr->base  = addr->base  ? be_transform_node(addr->base)  : noreg_GP;
627         addr->index = addr->index ? be_transform_node(addr->index) : noreg_GP;
628         addr->mem   = be_transform_node(mem);
629 }
630
631 static void build_address(ia32_address_mode_t *am, ir_node *node,
632                           ia32_create_am_flags_t flags)
633 {
634         ia32_address_t *addr = &am->addr;
635         ir_node        *load;
636         ir_node        *ptr;
637         ir_node        *mem;
638         ir_node        *new_mem;
639
640         /* floating point immediates */
641         if (is_Const(node)) {
642                 ir_entity *entity  = ia32_create_float_const_entity(node);
643                 addr->base         = get_symconst_base();
644                 addr->index        = noreg_GP;
645                 addr->mem          = nomem;
646                 addr->symconst_ent = entity;
647                 addr->tls_segment  = false;
648                 addr->use_frame    = 1;
649                 am->ls_mode        = get_type_mode(get_entity_type(entity));
650                 am->pinned         = op_pin_state_floats;
651                 return;
652         }
653
654         load         = get_Proj_pred(node);
655         ptr          = get_Load_ptr(load);
656         mem          = get_Load_mem(load);
657         new_mem      = be_transform_node(mem);
658         am->pinned   = get_irn_pinned(load);
659         am->ls_mode  = get_Load_mode(load);
660         am->mem_proj = be_get_Proj_for_pn(load, pn_Load_M);
661         am->am_node  = node;
662
663         /* construct load address */
664         ia32_create_address_mode(addr, ptr, flags);
665
666         addr->base  = addr->base  ? be_transform_node(addr->base)  : noreg_GP;
667         addr->index = addr->index ? be_transform_node(addr->index) : noreg_GP;
668         addr->mem   = new_mem;
669 }
670
671 static void set_address(ir_node *node, const ia32_address_t *addr)
672 {
673         set_ia32_am_scale(node, addr->scale);
674         set_ia32_am_sc(node, addr->symconst_ent);
675         set_ia32_am_offs_int(node, addr->offset);
676         set_ia32_am_tls_segment(node, addr->tls_segment);
677         if (addr->symconst_sign)
678                 set_ia32_am_sc_sign(node);
679         if (addr->use_frame)
680                 set_ia32_use_frame(node);
681         set_ia32_frame_ent(node, addr->frame_entity);
682 }
683
684 /**
685  * Apply attributes of a given address mode to a node.
686  */
687 static void set_am_attributes(ir_node *node, const ia32_address_mode_t *am)
688 {
689         set_address(node, &am->addr);
690
691         set_ia32_op_type(node, am->op_type);
692         set_ia32_ls_mode(node, am->ls_mode);
693         if (am->pinned == op_pin_state_pinned) {
694                 /* beware: some nodes are already pinned and did not allow to change the state */
695                 if (get_irn_pinned(node) != op_pin_state_pinned)
696                         set_irn_pinned(node, op_pin_state_pinned);
697         }
698         if (am->commutative)
699                 set_ia32_commutative(node);
700 }
701
702 /**
703  * Check, if a given node is a Down-Conv, ie. a integer Conv
704  * from a mode with a mode with more bits to a mode with lesser bits.
705  * Moreover, we return only true if the node has not more than 1 user.
706  *
707  * @param node   the node
708  * @return non-zero if node is a Down-Conv
709  */
710 static int is_downconv(const ir_node *node)
711 {
712         ir_mode *src_mode;
713         ir_mode *dest_mode;
714
715         if (!is_Conv(node))
716                 return 0;
717
718         /* we only want to skip the conv when we're the only user
719          * (because this test is used in the context of address-mode selection
720          *  and we don't want to use address mode for multiple users) */
721         if (get_irn_n_edges(node) > 1)
722                 return 0;
723
724         src_mode  = get_irn_mode(get_Conv_op(node));
725         dest_mode = get_irn_mode(node);
726         return
727                 ia32_mode_needs_gp_reg(src_mode)  &&
728                 ia32_mode_needs_gp_reg(dest_mode) &&
729                 get_mode_size_bits(dest_mode) <= get_mode_size_bits(src_mode);
730 }
731
732 /** Skip all Down-Conv's on a given node and return the resulting node. */
733 ir_node *ia32_skip_downconv(ir_node *node)
734 {
735         while (is_downconv(node))
736                 node = get_Conv_op(node);
737
738         return node;
739 }
740
741 static bool is_sameconv(ir_node *node)
742 {
743         ir_mode *src_mode;
744         ir_mode *dest_mode;
745
746         if (!is_Conv(node))
747                 return 0;
748
749         /* we only want to skip the conv when we're the only user
750          * (because this test is used in the context of address-mode selection
751          *  and we don't want to use address mode for multiple users) */
752         if (get_irn_n_edges(node) > 1)
753                 return 0;
754
755         src_mode  = get_irn_mode(get_Conv_op(node));
756         dest_mode = get_irn_mode(node);
757         return
758                 ia32_mode_needs_gp_reg(src_mode)  &&
759                 ia32_mode_needs_gp_reg(dest_mode) &&
760                 get_mode_size_bits(dest_mode) == get_mode_size_bits(src_mode);
761 }
762
763 /** Skip all signedness convs */
764 static ir_node *ia32_skip_sameconv(ir_node *node)
765 {
766         while (is_sameconv(node))
767                 node = get_Conv_op(node);
768
769         return node;
770 }
771
772 static ir_node *create_upconv(ir_node *node, ir_node *orig_node)
773 {
774         ir_mode  *mode = get_irn_mode(node);
775         ir_node  *block;
776         ir_mode  *tgt_mode;
777         dbg_info *dbgi;
778
779         if (mode_is_signed(mode)) {
780                 tgt_mode = mode_Is;
781         } else {
782                 tgt_mode = mode_Iu;
783         }
784         block = get_nodes_block(node);
785         dbgi  = get_irn_dbg_info(node);
786
787         return create_I2I_Conv(mode, tgt_mode, dbgi, block, node, orig_node);
788 }
789
790 /**
791  * matches operands of a node into ia32 addressing/operand modes. This covers
792  * usage of source address mode, immediates, operations with non 32-bit modes,
793  * ...
794  * The resulting data is filled into the @p am struct. block is the block
795  * of the node whose arguments are matched. op1, op2 are the first and second
796  * input that are matched (op1 may be NULL). other_op is another unrelated
797  * input that is not matched! but which is needed sometimes to check if AM
798  * for op1/op2 is legal.
799  * @p flags describes the supported modes of the operation in detail.
800  */
801 static void match_arguments(ia32_address_mode_t *am, ir_node *block,
802                             ir_node *op1, ir_node *op2, ir_node *other_op,
803                             match_flags_t flags)
804 {
805         ia32_address_t *addr      = &am->addr;
806         ir_mode        *mode      = get_irn_mode(op2);
807         int             mode_bits = get_mode_size_bits(mode);
808         ir_node        *new_op1, *new_op2;
809         int             use_am;
810         unsigned        commutative;
811         int             use_am_and_immediates;
812         int             use_immediate;
813
814         memset(am, 0, sizeof(am[0]));
815
816         commutative           = (flags & match_commutative) != 0;
817         use_am_and_immediates = (flags & match_am_and_immediates) != 0;
818         use_am                = (flags & match_am) != 0;
819         use_immediate         = (flags & match_immediate) != 0;
820         assert(!use_am_and_immediates || use_immediate);
821
822         assert(op2 != NULL);
823         assert(!commutative || op1 != NULL);
824         assert(use_am || !(flags & match_8bit_am));
825         assert(use_am || !(flags & match_16bit_am));
826
827         if ((mode_bits ==  8 && !(flags & match_8bit_am)) ||
828             (mode_bits == 16 && !(flags & match_16bit_am))) {
829                 use_am = 0;
830         }
831
832         /* we can simply skip downconvs for mode neutral nodes: the upper bits
833          * can be random for these operations */
834         if (flags & match_mode_neutral) {
835                 op2 = ia32_skip_downconv(op2);
836                 if (op1 != NULL) {
837                         op1 = ia32_skip_downconv(op1);
838                 }
839         } else {
840                 op2 = ia32_skip_sameconv(op2);
841                 if (op1 != NULL) {
842                         op1 = ia32_skip_sameconv(op1);
843                 }
844         }
845
846         /* match immediates. firm nodes are normalized: constants are always on the
847          * op2 input */
848         new_op2 = NULL;
849         if (!(flags & match_try_am) && use_immediate) {
850                 new_op2 = ia32_try_create_Immediate(op2, 0);
851         }
852
853         if (new_op2 == NULL &&
854             use_am && ia32_use_source_address_mode(block, op2, op1, other_op, flags)) {
855                 build_address(am, op2, ia32_create_am_normal);
856                 new_op1     = (op1 == NULL ? NULL : be_transform_node(op1));
857                 if (mode_is_float(mode)) {
858                         new_op2 = ia32_new_NoReg_vfp(current_ir_graph);
859                 } else {
860                         new_op2 = noreg_GP;
861                 }
862                 am->op_type = ia32_AddrModeS;
863         } else if (commutative && (new_op2 == NULL || use_am_and_immediates) &&
864                        use_am &&
865                        ia32_use_source_address_mode(block, op1, op2, other_op, flags)) {
866                 ir_node *noreg;
867                 build_address(am, op1, ia32_create_am_normal);
868
869                 if (mode_is_float(mode)) {
870                         noreg = ia32_new_NoReg_vfp(current_ir_graph);
871                 } else {
872                         noreg = noreg_GP;
873                 }
874
875                 if (new_op2 != NULL) {
876                         new_op1 = noreg;
877                 } else {
878                         new_op1 = be_transform_node(op2);
879                         new_op2 = noreg;
880                         am->ins_permuted = true;
881                 }
882                 am->op_type = ia32_AddrModeS;
883         } else {
884                 am->op_type = ia32_Normal;
885
886                 if (flags & match_try_am) {
887                         am->new_op1 = NULL;
888                         am->new_op2 = NULL;
889                         return;
890                 }
891
892                 mode = get_irn_mode(op2);
893                 if (flags & match_upconv_32 && get_mode_size_bits(mode) != 32) {
894                         new_op1 = (op1 == NULL ? NULL : create_upconv(op1, NULL));
895                         if (new_op2 == NULL)
896                                 new_op2 = create_upconv(op2, NULL);
897                         am->ls_mode = mode_Iu;
898                 } else {
899                         new_op1 = (op1 == NULL ? NULL : be_transform_node(op1));
900                         if (new_op2 == NULL)
901                                 new_op2 = be_transform_node(op2);
902                         am->ls_mode = (flags & match_mode_neutral) ? mode_Iu : mode;
903                 }
904         }
905         if (addr->base == NULL)
906                 addr->base = noreg_GP;
907         if (addr->index == NULL)
908                 addr->index = noreg_GP;
909         if (addr->mem == NULL)
910                 addr->mem = nomem;
911
912         am->new_op1     = new_op1;
913         am->new_op2     = new_op2;
914         am->commutative = commutative;
915 }
916
917 /**
918  * "Fixes" a node that uses address mode by turning it into mode_T
919  * and returning a pn_ia32_res Proj.
920  *
921  * @param node  the node
922  * @param am    its address mode
923  *
924  * @return a Proj(pn_ia32_res) if a memory address mode is used,
925  *         node else
926  */
927 static ir_node *fix_mem_proj(ir_node *node, ia32_address_mode_t *am)
928 {
929         ir_mode  *mode;
930         ir_node  *load;
931
932         if (am->mem_proj == NULL)
933                 return node;
934
935         /* we have to create a mode_T so the old MemProj can attach to us */
936         mode = get_irn_mode(node);
937         load = get_Proj_pred(am->mem_proj);
938
939         be_set_transformed_node(load, node);
940
941         if (mode != mode_T) {
942                 set_irn_mode(node, mode_T);
943                 return new_rd_Proj(NULL, node, mode, pn_ia32_res);
944         } else {
945                 return node;
946         }
947 }
948
949 /**
950  * Construct a standard binary operation, set AM and immediate if required.
951  *
952  * @param node  The original node for which the binop is created
953  * @param op1   The first operand
954  * @param op2   The second operand
955  * @param func  The node constructor function
956  * @return The constructed ia32 node.
957  */
958 static ir_node *gen_binop(ir_node *node, ir_node *op1, ir_node *op2,
959                           construct_binop_func *func, match_flags_t flags)
960 {
961         dbg_info            *dbgi;
962         ir_node             *block, *new_block, *new_node;
963         ia32_address_mode_t  am;
964         ia32_address_t      *addr = &am.addr;
965
966         block = get_nodes_block(node);
967         match_arguments(&am, block, op1, op2, NULL, flags);
968
969         dbgi      = get_irn_dbg_info(node);
970         new_block = be_transform_node(block);
971         new_node  = func(dbgi, new_block, addr->base, addr->index, addr->mem,
972                         am.new_op1, am.new_op2);
973         set_am_attributes(new_node, &am);
974         /* we can't use source address mode anymore when using immediates */
975         if (!(flags & match_am_and_immediates) &&
976             (is_ia32_Immediate(am.new_op1) || is_ia32_Immediate(am.new_op2)))
977                 set_ia32_am_support(new_node, ia32_am_none);
978         SET_IA32_ORIG_NODE(new_node, node);
979
980         new_node = fix_mem_proj(new_node, &am);
981
982         return new_node;
983 }
984
985 /**
986  * Generic names for the inputs of an ia32 binary op.
987  */
988 enum {
989         n_ia32_l_binop_left,  /**< ia32 left input */
990         n_ia32_l_binop_right, /**< ia32 right input */
991         n_ia32_l_binop_eflags /**< ia32 eflags input */
992 };
993 COMPILETIME_ASSERT((int)n_ia32_l_binop_left   == (int)n_ia32_l_Adc_left,       n_Adc_left)
994 COMPILETIME_ASSERT((int)n_ia32_l_binop_right  == (int)n_ia32_l_Adc_right,      n_Adc_right)
995 COMPILETIME_ASSERT((int)n_ia32_l_binop_eflags == (int)n_ia32_l_Adc_eflags,     n_Adc_eflags)
996 COMPILETIME_ASSERT((int)n_ia32_l_binop_left   == (int)n_ia32_l_Sbb_minuend,    n_Sbb_minuend)
997 COMPILETIME_ASSERT((int)n_ia32_l_binop_right  == (int)n_ia32_l_Sbb_subtrahend, n_Sbb_subtrahend)
998 COMPILETIME_ASSERT((int)n_ia32_l_binop_eflags == (int)n_ia32_l_Sbb_eflags,     n_Sbb_eflags)
999
1000 /**
1001  * Construct a binary operation which also consumes the eflags.
1002  *
1003  * @param node  The node to transform
1004  * @param func  The node constructor function
1005  * @param flags The match flags
1006  * @return      The constructor ia32 node
1007  */
1008 static ir_node *gen_binop_flags(ir_node *node, construct_binop_flags_func *func,
1009                                 match_flags_t flags)
1010 {
1011         ir_node             *src_block  = get_nodes_block(node);
1012         ir_node             *op1        = get_irn_n(node, n_ia32_l_binop_left);
1013         ir_node             *op2        = get_irn_n(node, n_ia32_l_binop_right);
1014         ir_node             *eflags     = get_irn_n(node, n_ia32_l_binop_eflags);
1015         dbg_info            *dbgi;
1016         ir_node             *block, *new_node, *new_eflags;
1017         ia32_address_mode_t  am;
1018         ia32_address_t      *addr       = &am.addr;
1019
1020         match_arguments(&am, src_block, op1, op2, eflags, flags);
1021
1022         dbgi       = get_irn_dbg_info(node);
1023         block      = be_transform_node(src_block);
1024         new_eflags = be_transform_node(eflags);
1025         new_node   = func(dbgi, block, addr->base, addr->index, addr->mem,
1026                           am.new_op1, am.new_op2, new_eflags);
1027         set_am_attributes(new_node, &am);
1028         /* we can't use source address mode anymore when using immediates */
1029         if (!(flags & match_am_and_immediates) &&
1030             (is_ia32_Immediate(am.new_op1) || is_ia32_Immediate(am.new_op2)))
1031                 set_ia32_am_support(new_node, ia32_am_none);
1032         SET_IA32_ORIG_NODE(new_node, node);
1033
1034         new_node = fix_mem_proj(new_node, &am);
1035
1036         return new_node;
1037 }
1038
1039 static ir_node *get_fpcw(void)
1040 {
1041         if (initial_fpcw != NULL)
1042                 return initial_fpcw;
1043
1044         initial_fpcw = be_transform_node(old_initial_fpcw);
1045         return initial_fpcw;
1046 }
1047
1048 /**
1049  * Construct a standard binary operation, set AM and immediate if required.
1050  *
1051  * @param op1   The first operand
1052  * @param op2   The second operand
1053  * @param func  The node constructor function
1054  * @return The constructed ia32 node.
1055  */
1056 static ir_node *gen_binop_x87_float(ir_node *node, ir_node *op1, ir_node *op2,
1057                                     construct_binop_float_func *func)
1058 {
1059         ir_mode             *mode = get_irn_mode(node);
1060         dbg_info            *dbgi;
1061         ir_node             *block, *new_block, *new_node;
1062         ia32_address_mode_t  am;
1063         ia32_address_t      *addr = &am.addr;
1064         ia32_x87_attr_t     *attr;
1065         /* All operations are considered commutative, because there are reverse
1066          * variants */
1067         match_flags_t        flags = match_commutative;
1068
1069         /* happens for div nodes... */
1070         if (mode == mode_T) {
1071                 if (is_Div(node))
1072                         mode = get_Div_resmode(node);
1073                 else
1074                         panic("can't determine mode");
1075         }
1076
1077         /* cannot use address mode with long double on x87 */
1078         if (get_mode_size_bits(mode) <= 64)
1079                 flags |= match_am;
1080
1081         block = get_nodes_block(node);
1082         match_arguments(&am, block, op1, op2, NULL, flags);
1083
1084         dbgi      = get_irn_dbg_info(node);
1085         new_block = be_transform_node(block);
1086         new_node  = func(dbgi, new_block, addr->base, addr->index, addr->mem,
1087                          am.new_op1, am.new_op2, get_fpcw());
1088         set_am_attributes(new_node, &am);
1089
1090         attr = get_ia32_x87_attr(new_node);
1091         attr->attr.data.ins_permuted = am.ins_permuted;
1092
1093         SET_IA32_ORIG_NODE(new_node, node);
1094
1095         new_node = fix_mem_proj(new_node, &am);
1096
1097         return new_node;
1098 }
1099
1100 /**
1101  * Construct a shift/rotate binary operation, sets AM and immediate if required.
1102  *
1103  * @param op1   The first operand
1104  * @param op2   The second operand
1105  * @param func  The node constructor function
1106  * @return The constructed ia32 node.
1107  */
1108 static ir_node *gen_shift_binop(ir_node *node, ir_node *op1, ir_node *op2,
1109                                 construct_shift_func *func,
1110                                 match_flags_t flags)
1111 {
1112         dbg_info *dbgi;
1113         ir_node  *block, *new_block, *new_op1, *new_op2, *new_node;
1114         ir_mode  *mode = get_irn_mode(node);
1115
1116         assert(! mode_is_float(mode));
1117         assert(flags & match_immediate);
1118         assert((flags & ~(match_mode_neutral | match_immediate)) == 0);
1119
1120         if (get_mode_modulo_shift(mode) != 32)
1121                 panic("modulo shift!=32 not supported by ia32 backend");
1122
1123         if (flags & match_mode_neutral) {
1124                 op1     = ia32_skip_downconv(op1);
1125                 new_op1 = be_transform_node(op1);
1126         } else if (get_mode_size_bits(mode) != 32) {
1127                 new_op1 = create_upconv(op1, node);
1128         } else {
1129                 new_op1 = be_transform_node(op1);
1130         }
1131
1132         /* the shift amount can be any mode that is bigger than 5 bits, since all
1133          * other bits are ignored anyway */
1134         while (is_Conv(op2) && get_irn_n_edges(op2) == 1) {
1135                 ir_node *const op = get_Conv_op(op2);
1136                 if (mode_is_float(get_irn_mode(op)))
1137                         break;
1138                 op2 = op;
1139                 assert(get_mode_size_bits(get_irn_mode(op2)) >= 5);
1140         }
1141         new_op2 = create_immediate_or_transform(op2, 0);
1142
1143         dbgi      = get_irn_dbg_info(node);
1144         block     = get_nodes_block(node);
1145         new_block = be_transform_node(block);
1146         new_node  = func(dbgi, new_block, new_op1, new_op2);
1147         SET_IA32_ORIG_NODE(new_node, node);
1148
1149         /* lowered shift instruction may have a dependency operand, handle it here */
1150         if (get_irn_arity(node) == 3) {
1151                 /* we have a dependency */
1152                 ir_node* dep = get_irn_n(node, 2);
1153                 if (get_irn_n_edges(dep) > 1) {
1154                         /* ... which has at least one user other than 'node' */
1155                         ir_node *new_dep = be_transform_node(dep);
1156                         add_irn_dep(new_node, new_dep);
1157                 }
1158         }
1159
1160         return new_node;
1161 }
1162
1163
1164 /**
1165  * Construct a standard unary operation, set AM and immediate if required.
1166  *
1167  * @param op    The operand
1168  * @param func  The node constructor function
1169  * @return The constructed ia32 node.
1170  */
1171 static ir_node *gen_unop(ir_node *node, ir_node *op, construct_unop_func *func,
1172                          match_flags_t flags)
1173 {
1174         dbg_info *dbgi;
1175         ir_node  *block, *new_block, *new_op, *new_node;
1176
1177         assert(flags == 0 || flags == match_mode_neutral);
1178         if (flags & match_mode_neutral) {
1179                 op = ia32_skip_downconv(op);
1180         }
1181
1182         new_op    = be_transform_node(op);
1183         dbgi      = get_irn_dbg_info(node);
1184         block     = get_nodes_block(node);
1185         new_block = be_transform_node(block);
1186         new_node  = func(dbgi, new_block, new_op);
1187
1188         SET_IA32_ORIG_NODE(new_node, node);
1189
1190         return new_node;
1191 }
1192
1193 static ir_node *create_lea_from_address(dbg_info *dbgi, ir_node *block,
1194                                         ia32_address_t *addr)
1195 {
1196         ir_node *base;
1197         ir_node *idx;
1198         ir_node *res;
1199
1200         base = addr->base;
1201         if (base == NULL) {
1202                 base = noreg_GP;
1203         } else {
1204                 base = be_transform_node(base);
1205         }
1206
1207         idx = addr->index;
1208         if (idx == NULL) {
1209                 idx = noreg_GP;
1210         } else {
1211                 idx = be_transform_node(idx);
1212         }
1213
1214         /* segment overrides are ineffective for Leas :-( so we have to patch
1215          * around... */
1216         if (addr->tls_segment) {
1217                 ir_node *tls_base = new_bd_ia32_LdTls(NULL, block);
1218                 assert(addr->symconst_ent != NULL);
1219                 if (base == noreg_GP)
1220                         base = tls_base;
1221                 else
1222                         base = new_bd_ia32_Lea(dbgi, block, tls_base, base);
1223                 addr->tls_segment = false;
1224         }
1225
1226         res = new_bd_ia32_Lea(dbgi, block, base, idx);
1227         set_address(res, addr);
1228
1229         return res;
1230 }
1231
1232 /**
1233  * Returns non-zero if a given address mode has a symbolic or
1234  * numerical offset != 0.
1235  */
1236 static int am_has_immediates(const ia32_address_t *addr)
1237 {
1238         return addr->offset != 0 || addr->symconst_ent != NULL
1239                 || addr->frame_entity || addr->use_frame;
1240 }
1241
1242 /**
1243  * Creates an ia32 Add.
1244  *
1245  * @return the created ia32 Add node
1246  */
1247 static ir_node *gen_Add(ir_node *node)
1248 {
1249         ir_mode  *mode = get_irn_mode(node);
1250         ir_node  *op1  = get_Add_left(node);
1251         ir_node  *op2  = get_Add_right(node);
1252         dbg_info *dbgi;
1253         ir_node  *block, *new_block, *new_node, *add_immediate_op;
1254         ia32_address_t       addr;
1255         ia32_address_mode_t  am;
1256
1257         if (mode_is_float(mode)) {
1258                 if (ia32_cg_config.use_sse2)
1259                         return gen_binop(node, op1, op2, new_bd_ia32_xAdd,
1260                                          match_commutative | match_am);
1261                 else
1262                         return gen_binop_x87_float(node, op1, op2, new_bd_ia32_vfadd);
1263         }
1264
1265         ia32_mark_non_am(node);
1266
1267         op2 = ia32_skip_downconv(op2);
1268         op1 = ia32_skip_downconv(op1);
1269
1270         /**
1271          * Rules for an Add:
1272          *   0. Immediate Trees (example Add(Symconst, Const) -> Const)
1273          *   1. Add with immediate -> Lea
1274          *   2. Add with possible source address mode -> Add
1275          *   3. Otherwise -> Lea
1276          */
1277         memset(&addr, 0, sizeof(addr));
1278         ia32_create_address_mode(&addr, node, ia32_create_am_force);
1279         add_immediate_op = NULL;
1280
1281         dbgi      = get_irn_dbg_info(node);
1282         block     = get_nodes_block(node);
1283         new_block = be_transform_node(block);
1284
1285         /* a constant? */
1286         if (addr.base == NULL && addr.index == NULL) {
1287                 new_node = new_bd_ia32_Const(dbgi, new_block, addr.symconst_ent,
1288                                              addr.symconst_sign, 0, addr.offset);
1289                 SET_IA32_ORIG_NODE(new_node, node);
1290                 return new_node;
1291         }
1292         /* add with immediate? */
1293         if (addr.index == NULL) {
1294                 add_immediate_op = addr.base;
1295         } else if (addr.base == NULL && addr.scale == 0) {
1296                 add_immediate_op = addr.index;
1297         }
1298
1299         if (add_immediate_op != NULL) {
1300                 if (!am_has_immediates(&addr)) {
1301 #ifdef DEBUG_libfirm
1302                         ir_fprintf(stderr, "Optimisation warning Add x,0 (%+F) found\n",
1303                                            node);
1304 #endif
1305                         return be_transform_node(add_immediate_op);
1306                 }
1307
1308                 new_node = create_lea_from_address(dbgi, new_block, &addr);
1309                 SET_IA32_ORIG_NODE(new_node, node);
1310                 return new_node;
1311         }
1312
1313         /* test if we can use source address mode */
1314         match_arguments(&am, block, op1, op2, NULL, match_commutative
1315                         | match_mode_neutral | match_am | match_immediate | match_try_am);
1316
1317         /* construct an Add with source address mode */
1318         if (am.op_type == ia32_AddrModeS) {
1319                 ia32_address_t *am_addr = &am.addr;
1320                 new_node = new_bd_ia32_Add(dbgi, new_block, am_addr->base,
1321                                          am_addr->index, am_addr->mem, am.new_op1,
1322                                          am.new_op2);
1323                 set_am_attributes(new_node, &am);
1324                 SET_IA32_ORIG_NODE(new_node, node);
1325
1326                 new_node = fix_mem_proj(new_node, &am);
1327
1328                 return new_node;
1329         }
1330
1331         /* otherwise construct a lea */
1332         new_node = create_lea_from_address(dbgi, new_block, &addr);
1333         SET_IA32_ORIG_NODE(new_node, node);
1334         return new_node;
1335 }
1336
1337 /**
1338  * Creates an ia32 Mul.
1339  *
1340  * @return the created ia32 Mul node
1341  */
1342 static ir_node *gen_Mul(ir_node *node)
1343 {
1344         ir_node *op1  = get_Mul_left(node);
1345         ir_node *op2  = get_Mul_right(node);
1346         ir_mode *mode = get_irn_mode(node);
1347
1348         if (mode_is_float(mode)) {
1349                 if (ia32_cg_config.use_sse2)
1350                         return gen_binop(node, op1, op2, new_bd_ia32_xMul,
1351                                          match_commutative | match_am);
1352                 else
1353                         return gen_binop_x87_float(node, op1, op2, new_bd_ia32_vfmul);
1354         }
1355         return gen_binop(node, op1, op2, new_bd_ia32_IMul,
1356                          match_commutative | match_am | match_mode_neutral |
1357                          match_immediate | match_am_and_immediates);
1358 }
1359
1360 /**
1361  * Creates an ia32 Mulh.
1362  * Note: Mul produces a 64Bit result and Mulh returns the upper 32 bit of
1363  * this result while Mul returns the lower 32 bit.
1364  *
1365  * @return the created ia32 Mulh node
1366  */
1367 static ir_node *gen_Mulh(ir_node *node)
1368 {
1369         dbg_info *dbgi      = get_irn_dbg_info(node);
1370         ir_node  *op1       = get_Mulh_left(node);
1371         ir_node  *op2       = get_Mulh_right(node);
1372         ir_mode  *mode      = get_irn_mode(node);
1373         ir_node  *new_node;
1374         ir_node  *proj_res_high;
1375
1376         if (get_mode_size_bits(mode) != 32) {
1377                 panic("Mulh without 32bit size not supported in ia32 backend (%+F)", node);
1378         }
1379
1380         if (mode_is_signed(mode)) {
1381                 new_node = gen_binop(node, op1, op2, new_bd_ia32_IMul1OP, match_commutative | match_am);
1382                 proj_res_high = new_rd_Proj(dbgi, new_node, mode_Iu, pn_ia32_IMul1OP_res_high);
1383         } else {
1384                 new_node = gen_binop(node, op1, op2, new_bd_ia32_Mul, match_commutative | match_am);
1385                 proj_res_high = new_rd_Proj(dbgi, new_node, mode_Iu, pn_ia32_Mul_res_high);
1386         }
1387         return proj_res_high;
1388 }
1389
1390 /**
1391  * Creates an ia32 And.
1392  *
1393  * @return The created ia32 And node
1394  */
1395 static ir_node *gen_And(ir_node *node)
1396 {
1397         ir_node *op1 = get_And_left(node);
1398         ir_node *op2 = get_And_right(node);
1399         assert(! mode_is_float(get_irn_mode(node)));
1400
1401         /* is it a zero extension? */
1402         if (is_Const(op2)) {
1403                 ir_tarval *tv = get_Const_tarval(op2);
1404                 long       v  = get_tarval_long(tv);
1405
1406                 if (v == 0xFF || v == 0xFFFF) {
1407                         dbg_info *dbgi   = get_irn_dbg_info(node);
1408                         ir_node  *block  = get_nodes_block(node);
1409                         ir_mode  *src_mode;
1410                         ir_node  *res;
1411
1412                         if (v == 0xFF) {
1413                                 src_mode = mode_Bu;
1414                         } else {
1415                                 assert(v == 0xFFFF);
1416                                 src_mode = mode_Hu;
1417                         }
1418                         res = create_I2I_Conv(src_mode, mode_Iu, dbgi, block, op1, node);
1419
1420                         return res;
1421                 }
1422         }
1423         return gen_binop(node, op1, op2, new_bd_ia32_And,
1424                         match_commutative | match_mode_neutral | match_am | match_immediate);
1425 }
1426
1427 /**
1428  * test wether 2 values result in 'x' and '32-x' when interpreted as a shift
1429  * value.
1430  */
1431 static bool is_complementary_shifts(ir_node *value1, ir_node *value2)
1432 {
1433         if (is_Const(value1) && is_Const(value2)) {
1434                 ir_tarval *tv1 = get_Const_tarval(value1);
1435                 ir_tarval *tv2 = get_Const_tarval(value2);
1436                 if (tarval_is_long(tv1) && tarval_is_long(tv2)) {
1437                         long v1 = get_tarval_long(tv1);
1438                         long v2 = get_tarval_long(tv2);
1439                         return v1 <= v2 && v2 == 32-v1;
1440                 }
1441         }
1442         return false;
1443 }
1444
1445 typedef ir_node* (*new_shiftd_func)(dbg_info *dbgi, ir_node *block,
1446                                     ir_node *high, ir_node *low,
1447                                     ir_node *count);
1448
1449 /**
1450  * Transforms a l_ShlD/l_ShrD into a ShlD/ShrD. Those nodes have 3 data inputs:
1451  * op1 - target to be shifted
1452  * op2 - contains bits to be shifted into target
1453  * op3 - shift count
1454  * Only op3 can be an immediate.
1455  */
1456 static ir_node *gen_64bit_shifts(dbg_info *dbgi, ir_node *block,
1457                                  ir_node *high, ir_node *low, ir_node *count,
1458                                  new_shiftd_func func)
1459 {
1460         ir_node  *new_block = be_transform_node(block);
1461         ir_node  *new_high  = be_transform_node(high);
1462         ir_node  *new_low   = be_transform_node(low);
1463         ir_node  *new_count;
1464         ir_node  *new_node;
1465
1466         /* the shift amount can be any mode that is bigger than 5 bits, since all
1467          * other bits are ignored anyway */
1468         while (is_Conv(count)              &&
1469                get_irn_n_edges(count) == 1 &&
1470                mode_is_int(get_irn_mode(count))) {
1471                 assert(get_mode_size_bits(get_irn_mode(count)) >= 5);
1472                 count = get_Conv_op(count);
1473         }
1474         new_count = create_immediate_or_transform(count, 0);
1475
1476         new_node = func(dbgi, new_block, new_high, new_low, new_count);
1477         return new_node;
1478 }
1479
1480 static ir_node *match_64bit_shift(ir_node *node)
1481 {
1482         ir_node *op1 = get_Or_left(node);
1483         ir_node *op2 = get_Or_right(node);
1484
1485         if (is_Shr(op1)) {
1486                 ir_node *tmp = op1;
1487                 op1 = op2;
1488                 op2 = tmp;
1489         }
1490
1491         /* match ShlD operation */
1492         if (is_Shl(op1) && is_Shr(op2)) {
1493                 ir_node *shl_right = get_Shl_right(op1);
1494                 ir_node *shl_left  = get_Shl_left(op1);
1495                 ir_node *shr_right = get_Shr_right(op2);
1496                 ir_node *shr_left  = get_Shr_left(op2);
1497                 /* constant ShlD operation */
1498                 if (is_complementary_shifts(shl_right, shr_right)) {
1499                         dbg_info *dbgi  = get_irn_dbg_info(node);
1500                         ir_node  *block = get_nodes_block(node);
1501                         return gen_64bit_shifts(dbgi, block, shl_left, shr_left, shl_right,
1502                                                 new_bd_ia32_ShlD);
1503                 }
1504                 /* constant ShrD operation */
1505                 if (is_complementary_shifts(shr_right, shl_right)) {
1506                         dbg_info *dbgi  = get_irn_dbg_info(node);
1507                         ir_node  *block = get_nodes_block(node);
1508                         return gen_64bit_shifts(dbgi, block, shr_left, shl_left, shr_right,
1509                                                 new_bd_ia32_ShrD);
1510                 }
1511                 /* lower_dw produces the following for ShlD:
1512                  * Or(Shr(Shr(high,1),Not(c)),Shl(low,c)) */
1513                 if (is_Shr(shr_left) && is_Not(shr_right)
1514                         && is_Const_1(get_Shr_right(shr_left))
1515                     && get_Not_op(shr_right) == shl_right) {
1516                         dbg_info *dbgi  = get_irn_dbg_info(node);
1517                         ir_node  *block = get_nodes_block(node);
1518                         ir_node  *val_h = get_Shr_left(shr_left);
1519                         return gen_64bit_shifts(dbgi, block, shl_left, val_h, shl_right,
1520                                                 new_bd_ia32_ShlD);
1521                 }
1522                 /* lower_dw produces the following for ShrD:
1523                  * Or(Shl(Shl(high,1),Not(c)), Shr(low,c)) */
1524                 if (is_Shl(shl_left) && is_Not(shl_right)
1525                     && is_Const_1(get_Shl_right(shl_left))
1526                     && get_Not_op(shl_right) == shr_right) {
1527                         dbg_info *dbgi  = get_irn_dbg_info(node);
1528                         ir_node  *block = get_nodes_block(node);
1529                         ir_node  *val_h = get_Shl_left(shl_left);
1530                     return gen_64bit_shifts(dbgi, block, shr_left, val_h, shr_right,
1531                                             new_bd_ia32_ShrD);
1532                 }
1533         }
1534
1535         return NULL;
1536 }
1537
1538 /**
1539  * Creates an ia32 Or.
1540  *
1541  * @return The created ia32 Or node
1542  */
1543 static ir_node *gen_Or(ir_node *node)
1544 {
1545         ir_node *op1 = get_Or_left(node);
1546         ir_node *op2 = get_Or_right(node);
1547         ir_node *res;
1548
1549         res = match_64bit_shift(node);
1550         if (res != NULL)
1551                 return res;
1552
1553         assert (! mode_is_float(get_irn_mode(node)));
1554         return gen_binop(node, op1, op2, new_bd_ia32_Or, match_commutative
1555                         | match_mode_neutral | match_am | match_immediate);
1556 }
1557
1558
1559
1560 /**
1561  * Creates an ia32 Eor.
1562  *
1563  * @return The created ia32 Eor node
1564  */
1565 static ir_node *gen_Eor(ir_node *node)
1566 {
1567         ir_node *op1 = get_Eor_left(node);
1568         ir_node *op2 = get_Eor_right(node);
1569
1570         assert(! mode_is_float(get_irn_mode(node)));
1571         return gen_binop(node, op1, op2, new_bd_ia32_Xor, match_commutative
1572                         | match_mode_neutral | match_am | match_immediate);
1573 }
1574
1575
1576 /**
1577  * Creates an ia32 Sub.
1578  *
1579  * @return The created ia32 Sub node
1580  */
1581 static ir_node *gen_Sub(ir_node *node)
1582 {
1583         ir_node  *op1  = get_Sub_left(node);
1584         ir_node  *op2  = get_Sub_right(node);
1585         ir_mode  *mode = get_irn_mode(node);
1586
1587         if (mode_is_float(mode)) {
1588                 if (ia32_cg_config.use_sse2)
1589                         return gen_binop(node, op1, op2, new_bd_ia32_xSub, match_am);
1590                 else
1591                         return gen_binop_x87_float(node, op1, op2, new_bd_ia32_vfsub);
1592         }
1593
1594         if (is_Const(op2)) {
1595                 ir_fprintf(stderr, "Optimisation warning: found sub with const (%+F)\n",
1596                            node);
1597         }
1598
1599         return gen_binop(node, op1, op2, new_bd_ia32_Sub, match_mode_neutral
1600                         | match_am | match_immediate);
1601 }
1602
1603 static ir_node *transform_AM_mem(ir_node *const block,
1604                                  ir_node  *const src_val,
1605                                  ir_node  *const src_mem,
1606                                  ir_node  *const am_mem)
1607 {
1608         if (is_NoMem(am_mem)) {
1609                 return be_transform_node(src_mem);
1610         } else if (is_Proj(src_val) &&
1611                    is_Proj(src_mem) &&
1612                    get_Proj_pred(src_val) == get_Proj_pred(src_mem)) {
1613                 /* avoid memory loop */
1614                 return am_mem;
1615         } else if (is_Proj(src_val) && is_Sync(src_mem)) {
1616                 ir_node  *const ptr_pred = get_Proj_pred(src_val);
1617                 int       const arity    = get_Sync_n_preds(src_mem);
1618                 int             n        = 0;
1619                 ir_node **      ins;
1620                 int             i;
1621
1622                 NEW_ARR_A(ir_node*, ins, arity + 1);
1623
1624                 /* NOTE: This sometimes produces dead-code because the old sync in
1625                  * src_mem might not be used anymore, we should detect this case
1626                  * and kill the sync... */
1627                 for (i = arity - 1; i >= 0; --i) {
1628                         ir_node *const pred = get_Sync_pred(src_mem, i);
1629
1630                         /* avoid memory loop */
1631                         if (is_Proj(pred) && get_Proj_pred(pred) == ptr_pred)
1632                                 continue;
1633
1634                         ins[n++] = be_transform_node(pred);
1635                 }
1636
1637                 if (n==1 && ins[0] == am_mem) {
1638                         return am_mem;
1639                         /* creating a new Sync and relying on CSE may fail,
1640                          * if am_mem is a ProjM, which does not yet verify. */
1641                 }
1642
1643                 ins[n++] = am_mem;
1644                 return new_r_Sync(block, n, ins);
1645         } else {
1646                 ir_node *ins[2];
1647
1648                 ins[0] = be_transform_node(src_mem);
1649                 ins[1] = am_mem;
1650                 return new_r_Sync(block, 2, ins);
1651         }
1652 }
1653
1654 /**
1655  * Create a 32bit to 64bit signed extension.
1656  *
1657  * @param dbgi   debug info
1658  * @param block  the block where node nodes should be placed
1659  * @param val    the value to extend
1660  * @param orig   the original node
1661  */
1662 static ir_node *create_sex_32_64(dbg_info *dbgi, ir_node *block,
1663                                  ir_node *val, const ir_node *orig)
1664 {
1665         ir_node *res;
1666
1667         (void)orig;
1668         if (ia32_cg_config.use_short_sex_eax) {
1669                 ir_node *pval = new_bd_ia32_ProduceVal(dbgi, block);
1670                 res = new_bd_ia32_Cltd(dbgi, block, val, pval);
1671         } else {
1672                 ir_node *imm31 = ia32_create_Immediate(NULL, 0, 31);
1673                 res = new_bd_ia32_Sar(dbgi, block, val, imm31);
1674         }
1675         SET_IA32_ORIG_NODE(res, orig);
1676         return res;
1677 }
1678
1679 /**
1680  * Generates an ia32 Div with additional infrastructure for the
1681  * register allocator if needed.
1682  */
1683 static ir_node *create_Div(ir_node *node)
1684 {
1685         dbg_info *dbgi             = get_irn_dbg_info(node);
1686         ir_node  *block            = get_nodes_block(node);
1687         ir_node  *new_block        = be_transform_node(block);
1688         int       throws_exception = ir_throws_exception(node);
1689         ir_node  *mem;
1690         ir_node  *new_mem;
1691         ir_node  *op1;
1692         ir_node  *op2;
1693         ir_node  *new_node;
1694         ir_mode  *mode;
1695         ir_node  *sign_extension;
1696         ia32_address_mode_t  am;
1697         ia32_address_t      *addr = &am.addr;
1698
1699         /* the upper bits have random contents for smaller modes */
1700         switch (get_irn_opcode(node)) {
1701         case iro_Div:
1702                 op1     = get_Div_left(node);
1703                 op2     = get_Div_right(node);
1704                 mem     = get_Div_mem(node);
1705                 mode    = get_Div_resmode(node);
1706                 break;
1707         case iro_Mod:
1708                 op1     = get_Mod_left(node);
1709                 op2     = get_Mod_right(node);
1710                 mem     = get_Mod_mem(node);
1711                 mode    = get_Mod_resmode(node);
1712                 break;
1713         default:
1714                 panic("invalid divmod node %+F", node);
1715         }
1716
1717         match_arguments(&am, block, op1, op2, NULL, match_am | match_upconv_32);
1718
1719         /* Beware: We don't need a Sync, if the memory predecessor of the Div node
1720            is the memory of the consumed address. We can have only the second op as address
1721            in Div nodes, so check only op2. */
1722         new_mem = transform_AM_mem(block, op2, mem, addr->mem);
1723
1724         if (mode_is_signed(mode)) {
1725                 sign_extension = create_sex_32_64(dbgi, new_block, am.new_op1, node);
1726                 new_node       = new_bd_ia32_IDiv(dbgi, new_block, addr->base,
1727                                 addr->index, new_mem, am.new_op2, am.new_op1, sign_extension);
1728         } else {
1729                 sign_extension = new_bd_ia32_Const(dbgi, new_block, NULL, 0, 0, 0);
1730
1731                 new_node = new_bd_ia32_Div(dbgi, new_block, addr->base,
1732                                            addr->index, new_mem, am.new_op2,
1733                                            am.new_op1, sign_extension);
1734         }
1735         ir_set_throws_exception(new_node, throws_exception);
1736
1737         set_irn_pinned(new_node, get_irn_pinned(node));
1738
1739         set_am_attributes(new_node, &am);
1740         SET_IA32_ORIG_NODE(new_node, node);
1741
1742         new_node = fix_mem_proj(new_node, &am);
1743
1744         return new_node;
1745 }
1746
1747 /**
1748  * Generates an ia32 Mod.
1749  */
1750 static ir_node *gen_Mod(ir_node *node)
1751 {
1752         return create_Div(node);
1753 }
1754
1755 /**
1756  * Generates an ia32 Div.
1757  */
1758 static ir_node *gen_Div(ir_node *node)
1759 {
1760         ir_mode *mode = get_Div_resmode(node);
1761         if (mode_is_float(mode)) {
1762                 ir_node *op1 = get_Div_left(node);
1763                 ir_node *op2 = get_Div_right(node);
1764
1765                 if (ia32_cg_config.use_sse2) {
1766                         return gen_binop(node, op1, op2, new_bd_ia32_xDiv, match_am);
1767                 } else {
1768                         return gen_binop_x87_float(node, op1, op2, new_bd_ia32_vfdiv);
1769                 }
1770         }
1771
1772         return create_Div(node);
1773 }
1774
1775 /**
1776  * Creates an ia32 Shl.
1777  *
1778  * @return The created ia32 Shl node
1779  */
1780 static ir_node *gen_Shl(ir_node *node)
1781 {
1782         ir_node *left  = get_Shl_left(node);
1783         ir_node *right = get_Shl_right(node);
1784
1785         return gen_shift_binop(node, left, right, new_bd_ia32_Shl,
1786                                match_mode_neutral | match_immediate);
1787 }
1788
1789 /**
1790  * Creates an ia32 Shr.
1791  *
1792  * @return The created ia32 Shr node
1793  */
1794 static ir_node *gen_Shr(ir_node *node)
1795 {
1796         ir_node *left  = get_Shr_left(node);
1797         ir_node *right = get_Shr_right(node);
1798
1799         return gen_shift_binop(node, left, right, new_bd_ia32_Shr, match_immediate);
1800 }
1801
1802
1803
1804 /**
1805  * Creates an ia32 Sar.
1806  *
1807  * @return The created ia32 Shrs node
1808  */
1809 static ir_node *gen_Shrs(ir_node *node)
1810 {
1811         ir_node *left  = get_Shrs_left(node);
1812         ir_node *right = get_Shrs_right(node);
1813
1814         if (is_Const(right)) {
1815                 ir_tarval *tv  = get_Const_tarval(right);
1816                 long       val = get_tarval_long(tv);
1817                 if (val == 31) {
1818                         /* this is a sign extension */
1819                         dbg_info *dbgi   = get_irn_dbg_info(node);
1820                         ir_node  *block  = be_transform_node(get_nodes_block(node));
1821                         ir_node  *new_op = be_transform_node(left);
1822
1823                         return create_sex_32_64(dbgi, block, new_op, node);
1824                 }
1825         }
1826
1827         /* 8 or 16 bit sign extension? */
1828         if (is_Const(right) && is_Shl(left)) {
1829                 ir_node *shl_left  = get_Shl_left(left);
1830                 ir_node *shl_right = get_Shl_right(left);
1831                 if (is_Const(shl_right)) {
1832                         ir_tarval *tv1 = get_Const_tarval(right);
1833                         ir_tarval *tv2 = get_Const_tarval(shl_right);
1834                         if (tv1 == tv2 && tarval_is_long(tv1)) {
1835                                 long val = get_tarval_long(tv1);
1836                                 if (val == 16 || val == 24) {
1837                                         dbg_info *dbgi   = get_irn_dbg_info(node);
1838                                         ir_node  *block  = get_nodes_block(node);
1839                                         ir_mode  *src_mode;
1840                                         ir_node  *res;
1841
1842                                         if (val == 24) {
1843                                                 src_mode = mode_Bs;
1844                                         } else {
1845                                                 assert(val == 16);
1846                                                 src_mode = mode_Hs;
1847                                         }
1848                                         res = create_I2I_Conv(src_mode, mode_Is, dbgi, block,
1849                                                               shl_left, node);
1850
1851                                         return res;
1852                                 }
1853                         }
1854                 }
1855         }
1856
1857         return gen_shift_binop(node, left, right, new_bd_ia32_Sar, match_immediate);
1858 }
1859
1860
1861
1862 /**
1863  * Creates an ia32 Rol.
1864  *
1865  * @param op1   The first operator
1866  * @param op2   The second operator
1867  * @return The created ia32 RotL node
1868  */
1869 static ir_node *gen_Rol(ir_node *node, ir_node *op1, ir_node *op2)
1870 {
1871         return gen_shift_binop(node, op1, op2, new_bd_ia32_Rol, match_immediate);
1872 }
1873
1874
1875
1876 /**
1877  * Creates an ia32 Ror.
1878  * NOTE: There is no RotR with immediate because this would always be a RotL
1879  *       "imm-mode_size_bits" which can be pre-calculated.
1880  *
1881  * @param op1   The first operator
1882  * @param op2   The second operator
1883  * @return The created ia32 RotR node
1884  */
1885 static ir_node *gen_Ror(ir_node *node, ir_node *op1, ir_node *op2)
1886 {
1887         return gen_shift_binop(node, op1, op2, new_bd_ia32_Ror, match_immediate);
1888 }
1889
1890
1891
1892 /**
1893  * Creates an ia32 RotR or RotL (depending on the found pattern).
1894  *
1895  * @return The created ia32 RotL or RotR node
1896  */
1897 static ir_node *gen_Rotl(ir_node *node)
1898 {
1899         ir_node *op1    = get_Rotl_left(node);
1900         ir_node *op2    = get_Rotl_right(node);
1901
1902         if (is_Minus(op2)) {
1903                 return gen_Ror(node, op1, get_Minus_op(op2));
1904         }
1905
1906         return gen_Rol(node, op1, op2);
1907 }
1908
1909
1910
1911 /**
1912  * Transforms a Minus node.
1913  *
1914  * @return The created ia32 Minus node
1915  */
1916 static ir_node *gen_Minus(ir_node *node)
1917 {
1918         ir_node   *op    = get_Minus_op(node);
1919         ir_node   *block = be_transform_node(get_nodes_block(node));
1920         dbg_info  *dbgi  = get_irn_dbg_info(node);
1921         ir_mode   *mode  = get_irn_mode(node);
1922         ir_entity *ent;
1923         ir_node   *new_node;
1924         int        size;
1925
1926         if (mode_is_float(mode)) {
1927                 ir_node *new_op = be_transform_node(op);
1928                 if (ia32_cg_config.use_sse2) {
1929                         /* TODO: non-optimal... if we have many xXors, then we should
1930                          * rather create a load for the const and use that instead of
1931                          * several AM nodes... */
1932                         ir_node *noreg_xmm = ia32_new_NoReg_xmm(current_ir_graph);
1933
1934                         new_node = new_bd_ia32_xXor(dbgi, block, get_symconst_base(),
1935                                                     noreg_GP, nomem, new_op, noreg_xmm);
1936
1937                         size = get_mode_size_bits(mode);
1938                         ent  = ia32_gen_fp_known_const(size == 32 ? ia32_SSIGN : ia32_DSIGN);
1939
1940                         set_ia32_am_sc(new_node, ent);
1941                         set_ia32_op_type(new_node, ia32_AddrModeS);
1942                         set_ia32_ls_mode(new_node, mode);
1943                 } else {
1944                         new_node = new_bd_ia32_vfchs(dbgi, block, new_op);
1945                 }
1946         } else {
1947                 new_node = gen_unop(node, op, new_bd_ia32_Neg, match_mode_neutral);
1948         }
1949
1950         SET_IA32_ORIG_NODE(new_node, node);
1951
1952         return new_node;
1953 }
1954
1955 /**
1956  * Transforms a Not node.
1957  *
1958  * @return The created ia32 Not node
1959  */
1960 static ir_node *gen_Not(ir_node *node)
1961 {
1962         ir_node *op = get_Not_op(node);
1963
1964         assert(get_irn_mode(node) != mode_b); /* should be lowered already */
1965         assert (! mode_is_float(get_irn_mode(node)));
1966
1967         return gen_unop(node, op, new_bd_ia32_Not, match_mode_neutral);
1968 }
1969
1970 static ir_node *create_float_abs(dbg_info *dbgi, ir_node *block, ir_node *op,
1971                                  bool negate, ir_node *node)
1972 {
1973         ir_node   *new_block = be_transform_node(block);
1974         ir_mode   *mode      = get_irn_mode(op);
1975         ir_node   *new_op    = be_transform_node(op);
1976         ir_node   *new_node;
1977         int        size;
1978         ir_entity *ent;
1979
1980         assert(mode_is_float(mode));
1981
1982         if (ia32_cg_config.use_sse2) {
1983                 ir_node *noreg_fp = ia32_new_NoReg_xmm(current_ir_graph);
1984                 new_node = new_bd_ia32_xAnd(dbgi, new_block, get_symconst_base(),
1985                                                                         noreg_GP, nomem, new_op, noreg_fp);
1986
1987                 size = get_mode_size_bits(mode);
1988                 ent  = ia32_gen_fp_known_const(size == 32 ? ia32_SABS : ia32_DABS);
1989
1990                 set_ia32_am_sc(new_node, ent);
1991
1992                 SET_IA32_ORIG_NODE(new_node, node);
1993
1994                 set_ia32_op_type(new_node, ia32_AddrModeS);
1995                 set_ia32_ls_mode(new_node, mode);
1996
1997                 /* TODO, implement -Abs case */
1998                 assert(!negate);
1999         } else {
2000                 new_node = new_bd_ia32_vfabs(dbgi, new_block, new_op);
2001                 SET_IA32_ORIG_NODE(new_node, node);
2002                 if (negate) {
2003                         new_node = new_bd_ia32_vfchs(dbgi, new_block, new_node);
2004                         SET_IA32_ORIG_NODE(new_node, node);
2005                 }
2006         }
2007
2008         return new_node;
2009 }
2010
2011 /**
2012  * Create a bt instruction for x & (1 << n) and place it into the block of cmp.
2013  */
2014 static ir_node *gen_bt(ir_node *cmp, ir_node *x, ir_node *n)
2015 {
2016         dbg_info *dbgi      = get_irn_dbg_info(cmp);
2017         ir_node  *block     = get_nodes_block(cmp);
2018         ir_node  *new_block = be_transform_node(block);
2019         ir_node  *op1       = be_transform_node(x);
2020         ir_node  *op2       = be_transform_node(n);
2021
2022         return new_bd_ia32_Bt(dbgi, new_block, op1, op2);
2023 }
2024
2025 static ia32_condition_code_t relation_to_condition_code(ir_relation relation,
2026                                                         ir_mode *mode)
2027 {
2028         if (mode_is_float(mode)) {
2029                 switch (relation) {
2030                 case ir_relation_equal:              return ia32_cc_float_equal;
2031                 case ir_relation_less:               return ia32_cc_float_below;
2032                 case ir_relation_less_equal:         return ia32_cc_float_below_equal;
2033                 case ir_relation_greater:            return ia32_cc_float_above;
2034                 case ir_relation_greater_equal:      return ia32_cc_float_above_equal;
2035                 case ir_relation_less_greater:       return ia32_cc_not_equal;
2036                 case ir_relation_less_equal_greater: return ia32_cc_not_parity;
2037                 case ir_relation_unordered:          return ia32_cc_parity;
2038                 case ir_relation_unordered_equal:    return ia32_cc_equal;
2039                 case ir_relation_unordered_less:   return ia32_cc_float_unordered_below;
2040                 case ir_relation_unordered_less_equal:
2041                                              return ia32_cc_float_unordered_below_equal;
2042                 case ir_relation_unordered_greater:
2043                                              return ia32_cc_float_unordered_above;
2044                 case ir_relation_unordered_greater_equal:
2045                                              return ia32_cc_float_unordered_above_equal;
2046                 case ir_relation_unordered_less_greater:
2047                                              return ia32_cc_float_not_equal;
2048                 case ir_relation_false:
2049                 case ir_relation_true:
2050                         /* should we introduce a jump always/jump never? */
2051                         break;
2052                 }
2053                 panic("Unexpected float pnc");
2054         } else if (mode_is_signed(mode)) {
2055                 switch (relation) {
2056                 case ir_relation_unordered_equal:
2057                 case ir_relation_equal:                return ia32_cc_equal;
2058                 case ir_relation_unordered_less:
2059                 case ir_relation_less:                 return ia32_cc_less;
2060                 case ir_relation_unordered_less_equal:
2061                 case ir_relation_less_equal:           return ia32_cc_less_equal;
2062                 case ir_relation_unordered_greater:
2063                 case ir_relation_greater:              return ia32_cc_greater;
2064                 case ir_relation_unordered_greater_equal:
2065                 case ir_relation_greater_equal:        return ia32_cc_greater_equal;
2066                 case ir_relation_unordered_less_greater:
2067                 case ir_relation_less_greater:         return ia32_cc_not_equal;
2068                 case ir_relation_less_equal_greater:
2069                 case ir_relation_unordered:
2070                 case ir_relation_false:
2071                 case ir_relation_true:
2072                         /* introduce jump always/jump never? */
2073                         break;
2074                 }
2075                 panic("Unexpected pnc");
2076         } else {
2077                 switch (relation) {
2078                 case ir_relation_unordered_equal:
2079                 case ir_relation_equal:         return ia32_cc_equal;
2080                 case ir_relation_unordered_less:
2081                 case ir_relation_less:          return ia32_cc_below;
2082                 case ir_relation_unordered_less_equal:
2083                 case ir_relation_less_equal:    return ia32_cc_below_equal;
2084                 case ir_relation_unordered_greater:
2085                 case ir_relation_greater:       return ia32_cc_above;
2086                 case ir_relation_unordered_greater_equal:
2087                 case ir_relation_greater_equal: return ia32_cc_above_equal;
2088                 case ir_relation_unordered_less_greater:
2089                 case ir_relation_less_greater:  return ia32_cc_not_equal;
2090                 case ir_relation_less_equal_greater:
2091                 case ir_relation_unordered:
2092                 case ir_relation_false:
2093                 case ir_relation_true:
2094                         /* introduce jump always/jump never? */
2095                         break;
2096                 }
2097                 panic("Unexpected pnc");
2098         }
2099 }
2100
2101 static ir_node *get_flags_mode_b(ir_node *node, ia32_condition_code_t *cc_out)
2102 {
2103         /* a mode_b value, we have to compare it against 0 */
2104         dbg_info *dbgi      = get_irn_dbg_info(node);
2105         ir_node  *new_block = be_transform_node(get_nodes_block(node));
2106         ir_node  *new_op    = be_transform_node(node);
2107         ir_node  *flags     = new_bd_ia32_Test(dbgi, new_block, noreg_GP, noreg_GP, nomem, new_op, new_op, false);
2108         set_ia32_ls_mode(flags, get_irn_mode(new_op));
2109         *cc_out  = ia32_cc_not_equal;
2110         return flags;
2111 }
2112
2113 static ir_node *get_flags_node_cmp(ir_node *cmp, ia32_condition_code_t *cc_out)
2114 {
2115         /* must have a Cmp as input */
2116         ir_relation relation = get_Cmp_relation(cmp);
2117         ir_relation possible;
2118         ir_node    *l        = get_Cmp_left(cmp);
2119         ir_node    *r        = get_Cmp_right(cmp);
2120         ir_mode    *mode     = get_irn_mode(l);
2121         ir_node    *flags;
2122
2123         /* check for bit-test */
2124         if (ia32_cg_config.use_bt && (relation == ir_relation_equal
2125                         || (mode_is_signed(mode) && relation == ir_relation_less_greater)
2126                         || (!mode_is_signed(mode) && ((relation & ir_relation_greater_equal) == ir_relation_greater)))
2127                     && is_And(l)) {
2128                 ir_node *la = get_And_left(l);
2129                 ir_node *ra = get_And_right(l);
2130                 if (is_Shl(ra)) {
2131                         ir_node *tmp = la;
2132                         la = ra;
2133                         ra = tmp;
2134                 }
2135                 if (is_Shl(la)) {
2136                         ir_node *c = get_Shl_left(la);
2137                         if (is_Const_1(c) && is_Const_0(r)) {
2138                                 /* (1 << n) & ra) */
2139                                 ir_node *n = get_Shl_right(la);
2140                                 flags    = gen_bt(cmp, ra, n);
2141                                 /* the bit is copied into the CF flag */
2142                                 if (relation & ir_relation_equal)
2143                                         *cc_out = ia32_cc_above_equal; /* test for CF=0 */
2144                                 else
2145                                         *cc_out = ia32_cc_below;       /* test for CF=1 */
2146                                 return flags;
2147                         }
2148                 }
2149         }
2150
2151         /* the middle-end tries to eliminate impossible relations, so a ptr != 0
2152          * test becomes ptr > 0. But for x86 an equal comparison is preferable to
2153          * a >0 (we can sometimes eliminate the cmp in favor of flags produced by
2154          * a predecessor node). So add the < bit */
2155         possible = ir_get_possible_cmp_relations(l, r);
2156         if (((relation & ir_relation_less) && !(possible & ir_relation_greater))
2157           || ((relation & ir_relation_greater) && !(possible & ir_relation_less)))
2158                 relation |= ir_relation_less_greater;
2159
2160         /* just do a normal transformation of the Cmp */
2161         *cc_out = relation_to_condition_code(relation, mode);
2162         flags   = be_transform_node(cmp);
2163         return flags;
2164 }
2165
2166 /**
2167  * Transform a node returning a "flag" result.
2168  *
2169  * @param node    the node to transform
2170  * @param cc_out  the compare mode to use
2171  */
2172 static ir_node *get_flags_node(ir_node *node, ia32_condition_code_t *cc_out)
2173 {
2174         if (is_Cmp(node))
2175                 return get_flags_node_cmp(node, cc_out);
2176         assert(get_irn_mode(node) == mode_b);
2177         return get_flags_mode_b(node, cc_out);
2178 }
2179
2180 /**
2181  * Transforms a Load.
2182  *
2183  * @return the created ia32 Load node
2184  */
2185 static ir_node *gen_Load(ir_node *node)
2186 {
2187         ir_node  *old_block = get_nodes_block(node);
2188         ir_node  *block     = be_transform_node(old_block);
2189         ir_node  *ptr       = get_Load_ptr(node);
2190         ir_node  *mem       = get_Load_mem(node);
2191         ir_node  *new_mem   = be_transform_node(mem);
2192         dbg_info *dbgi      = get_irn_dbg_info(node);
2193         ir_mode  *mode      = get_Load_mode(node);
2194         int       throws_exception = ir_throws_exception(node);
2195         ir_node  *base;
2196         ir_node  *idx;
2197         ir_node  *new_node;
2198         ia32_address_t addr;
2199
2200         /* construct load address */
2201         memset(&addr, 0, sizeof(addr));
2202         ia32_create_address_mode(&addr, ptr, ia32_create_am_normal);
2203         base = addr.base;
2204         idx  = addr.index;
2205
2206         if (base == NULL) {
2207                 base = noreg_GP;
2208         } else {
2209                 base = be_transform_node(base);
2210         }
2211
2212         if (idx == NULL) {
2213                 idx = noreg_GP;
2214         } else {
2215                 idx = be_transform_node(idx);
2216         }
2217
2218         if (mode_is_float(mode)) {
2219                 if (ia32_cg_config.use_sse2) {
2220                         new_node = new_bd_ia32_xLoad(dbgi, block, base, idx, new_mem,
2221                                                      mode);
2222                 } else {
2223                         new_node = new_bd_ia32_vfld(dbgi, block, base, idx, new_mem,
2224                                                     mode);
2225                 }
2226         } else {
2227                 assert(mode != mode_b);
2228
2229                 /* create a conv node with address mode for smaller modes */
2230                 if (get_mode_size_bits(mode) < 32) {
2231                         new_node = new_bd_ia32_Conv_I2I(dbgi, block, base, idx,
2232                                                         new_mem, noreg_GP, mode);
2233                 } else {
2234                         new_node = new_bd_ia32_Load(dbgi, block, base, idx, new_mem);
2235                 }
2236         }
2237         ir_set_throws_exception(new_node, throws_exception);
2238
2239         set_irn_pinned(new_node, get_irn_pinned(node));
2240         set_ia32_op_type(new_node, ia32_AddrModeS);
2241         set_ia32_ls_mode(new_node, mode);
2242         set_address(new_node, &addr);
2243
2244         if (get_irn_pinned(node) == op_pin_state_floats) {
2245                 assert((int)pn_ia32_xLoad_res == (int)pn_ia32_vfld_res
2246                                 && (int)pn_ia32_vfld_res == (int)pn_ia32_Load_res
2247                                 && (int)pn_ia32_Load_res == (int)pn_ia32_res);
2248                 arch_add_irn_flags(new_node, arch_irn_flags_rematerializable);
2249         }
2250
2251         SET_IA32_ORIG_NODE(new_node, node);
2252
2253         return new_node;
2254 }
2255
2256 static int use_dest_am(ir_node *block, ir_node *node, ir_node *mem,
2257                        ir_node *ptr, ir_node *other)
2258 {
2259         ir_node *load;
2260
2261         if (!is_Proj(node))
2262                 return 0;
2263
2264         /* we only use address mode if we're the only user of the load */
2265         if (get_irn_n_edges(node) > 1)
2266                 return 0;
2267
2268         load = get_Proj_pred(node);
2269         if (!is_Load(load))
2270                 return 0;
2271         if (get_nodes_block(load) != block)
2272                 return 0;
2273
2274         /* store should have the same pointer as the load */
2275         if (get_Load_ptr(load) != ptr)
2276                 return 0;
2277
2278         /* don't do AM if other node inputs depend on the load (via mem-proj) */
2279         if (other != NULL                   &&
2280             get_nodes_block(other) == block &&
2281             heights_reachable_in_block(ia32_heights, other, load)) {
2282                 return 0;
2283         }
2284
2285         if (ia32_prevents_AM(block, load, mem))
2286                 return 0;
2287         /* Store should be attached to the load via mem */
2288         assert(heights_reachable_in_block(ia32_heights, mem, load));
2289
2290         return 1;
2291 }
2292
2293 static ir_node *dest_am_binop(ir_node *node, ir_node *op1, ir_node *op2,
2294                               ir_node *mem, ir_node *ptr, ir_mode *mode,
2295                               construct_binop_dest_func *func,
2296                               construct_binop_dest_func *func8bit,
2297                                                           match_flags_t flags)
2298 {
2299         ir_node  *src_block = get_nodes_block(node);
2300         ir_node  *block;
2301         dbg_info *dbgi;
2302         ir_node  *new_mem;
2303         ir_node  *new_node;
2304         ir_node  *new_op;
2305         ir_node  *mem_proj;
2306         int       commutative;
2307         ia32_address_mode_t  am;
2308         ia32_address_t      *addr = &am.addr;
2309         memset(&am, 0, sizeof(am));
2310
2311         assert(flags & match_immediate); /* there is no destam node without... */
2312         commutative = (flags & match_commutative) != 0;
2313
2314         if (use_dest_am(src_block, op1, mem, ptr, op2)) {
2315                 build_address(&am, op1, ia32_create_am_double_use);
2316                 new_op = create_immediate_or_transform(op2, 0);
2317         } else if (commutative && use_dest_am(src_block, op2, mem, ptr, op1)) {
2318                 build_address(&am, op2, ia32_create_am_double_use);
2319                 new_op = create_immediate_or_transform(op1, 0);
2320         } else {
2321                 return NULL;
2322         }
2323
2324         if (addr->base == NULL)
2325                 addr->base = noreg_GP;
2326         if (addr->index == NULL)
2327                 addr->index = noreg_GP;
2328         if (addr->mem == NULL)
2329                 addr->mem = nomem;
2330
2331         dbgi    = get_irn_dbg_info(node);
2332         block   = be_transform_node(src_block);
2333         new_mem = transform_AM_mem(block, am.am_node, mem, addr->mem);
2334
2335         if (get_mode_size_bits(mode) == 8) {
2336                 new_node = func8bit(dbgi, block, addr->base, addr->index, new_mem, new_op);
2337         } else {
2338                 new_node = func(dbgi, block, addr->base, addr->index, new_mem, new_op);
2339         }
2340         set_address(new_node, addr);
2341         set_ia32_op_type(new_node, ia32_AddrModeD);
2342         set_ia32_ls_mode(new_node, mode);
2343         SET_IA32_ORIG_NODE(new_node, node);
2344
2345         be_set_transformed_node(get_Proj_pred(am.mem_proj), new_node);
2346         mem_proj = be_transform_node(am.mem_proj);
2347         be_set_transformed_node(am.mem_proj, new_node);
2348         be_set_transformed_node(mem_proj, new_node);
2349
2350         return new_node;
2351 }
2352
2353 static ir_node *dest_am_unop(ir_node *node, ir_node *op, ir_node *mem,
2354                              ir_node *ptr, ir_mode *mode,
2355                              construct_unop_dest_func *func)
2356 {
2357         ir_node  *src_block = get_nodes_block(node);
2358         ir_node  *block;
2359         dbg_info *dbgi;
2360         ir_node  *new_mem;
2361         ir_node  *new_node;
2362         ir_node  *mem_proj;
2363         ia32_address_mode_t  am;
2364         ia32_address_t *addr = &am.addr;
2365
2366         if (!use_dest_am(src_block, op, mem, ptr, NULL))
2367                 return NULL;
2368
2369         memset(&am, 0, sizeof(am));
2370         build_address(&am, op, ia32_create_am_double_use);
2371
2372         dbgi     = get_irn_dbg_info(node);
2373         block    = be_transform_node(src_block);
2374         new_mem  = transform_AM_mem(block, am.am_node, mem, addr->mem);
2375         new_node = func(dbgi, block, addr->base, addr->index, new_mem);
2376         set_address(new_node, addr);
2377         set_ia32_op_type(new_node, ia32_AddrModeD);
2378         set_ia32_ls_mode(new_node, mode);
2379         SET_IA32_ORIG_NODE(new_node, node);
2380
2381         be_set_transformed_node(get_Proj_pred(am.mem_proj), new_node);
2382         mem_proj = be_transform_node(am.mem_proj);
2383         be_set_transformed_node(am.mem_proj, new_node);
2384         be_set_transformed_node(mem_proj, new_node);
2385
2386         return new_node;
2387 }
2388
2389 static ir_node *try_create_SetMem(ir_node *node, ir_node *ptr, ir_node *mem)
2390 {
2391         ir_mode              *mode      = get_irn_mode(node);
2392         ir_node              *mux_true  = get_Mux_true(node);
2393         ir_node              *mux_false = get_Mux_false(node);
2394         ir_node              *cond;
2395         dbg_info             *dbgi;
2396         ir_node              *block;
2397         ir_node              *new_block;
2398         ir_node              *flags;
2399         ir_node              *new_node;
2400         bool                  negated;
2401         ia32_condition_code_t cc;
2402         ia32_address_t        addr;
2403
2404         if (get_mode_size_bits(mode) != 8)
2405                 return NULL;
2406
2407         if (is_Const_1(mux_true) && is_Const_0(mux_false)) {
2408                 negated = false;
2409         } else if (is_Const_0(mux_true) && is_Const_1(mux_false)) {
2410                 negated = true;
2411         } else {
2412                 return NULL;
2413         }
2414
2415         cond  = get_Mux_sel(node);
2416         flags = get_flags_node(cond, &cc);
2417         /* we can't handle the float special cases with SetM */
2418         if (cc & ia32_cc_additional_float_cases)
2419                 return NULL;
2420         if (negated)
2421                 cc = ia32_negate_condition_code(cc);
2422
2423         build_address_ptr(&addr, ptr, mem);
2424
2425         dbgi      = get_irn_dbg_info(node);
2426         block     = get_nodes_block(node);
2427         new_block = be_transform_node(block);
2428         new_node  = new_bd_ia32_SetccMem(dbgi, new_block, addr.base,
2429                                          addr.index, addr.mem, flags, cc);
2430         set_address(new_node, &addr);
2431         set_ia32_op_type(new_node, ia32_AddrModeD);
2432         set_ia32_ls_mode(new_node, mode);
2433         SET_IA32_ORIG_NODE(new_node, node);
2434
2435         return new_node;
2436 }
2437
2438 static ir_node *try_create_dest_am(ir_node *node)
2439 {
2440         ir_node  *val  = get_Store_value(node);
2441         ir_node  *mem  = get_Store_mem(node);
2442         ir_node  *ptr  = get_Store_ptr(node);
2443         ir_mode  *mode = get_irn_mode(val);
2444         unsigned  bits = get_mode_size_bits(mode);
2445         ir_node  *op1;
2446         ir_node  *op2;
2447         ir_node  *new_node;
2448
2449         /* handle only GP modes for now... */
2450         if (!ia32_mode_needs_gp_reg(mode))
2451                 return NULL;
2452
2453         for (;;) {
2454                 /* store must be the only user of the val node */
2455                 if (get_irn_n_edges(val) > 1)
2456                         return NULL;
2457                 /* skip pointless convs */
2458                 if (is_Conv(val)) {
2459                         ir_node *conv_op   = get_Conv_op(val);
2460                         ir_mode *pred_mode = get_irn_mode(conv_op);
2461                         if (!ia32_mode_needs_gp_reg(pred_mode))
2462                                 break;
2463                         if (pred_mode == mode_b || bits <= get_mode_size_bits(pred_mode)) {
2464                                 val = conv_op;
2465                                 continue;
2466                         }
2467                 }
2468                 break;
2469         }
2470
2471         /* value must be in the same block */
2472         if (get_nodes_block(node) != get_nodes_block(val))
2473                 return NULL;
2474
2475         switch (get_irn_opcode(val)) {
2476         case iro_Add:
2477                 op1      = get_Add_left(val);
2478                 op2      = get_Add_right(val);
2479                 if (ia32_cg_config.use_incdec) {
2480                         if (is_Const_1(op2)) {
2481                                 new_node = dest_am_unop(val, op1, mem, ptr, mode, new_bd_ia32_IncMem);
2482                                 break;
2483                         } else if (is_Const_Minus_1(op2)) {
2484                                 new_node = dest_am_unop(val, op1, mem, ptr, mode, new_bd_ia32_DecMem);
2485                                 break;
2486                         }
2487                 }
2488                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2489                                          new_bd_ia32_AddMem, new_bd_ia32_AddMem8Bit,
2490                                          match_commutative | match_immediate);
2491                 break;
2492         case iro_Sub:
2493                 op1      = get_Sub_left(val);
2494                 op2      = get_Sub_right(val);
2495                 if (is_Const(op2)) {
2496                         ir_fprintf(stderr, "Optimisation warning: not-normalized sub ,C found\n");
2497                 }
2498                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2499                                          new_bd_ia32_SubMem, new_bd_ia32_SubMem8Bit,
2500                                          match_immediate);
2501                 break;
2502         case iro_And:
2503                 op1      = get_And_left(val);
2504                 op2      = get_And_right(val);
2505                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2506                                          new_bd_ia32_AndMem, new_bd_ia32_AndMem8Bit,
2507                                          match_commutative | match_immediate);
2508                 break;
2509         case iro_Or:
2510                 op1      = get_Or_left(val);
2511                 op2      = get_Or_right(val);
2512                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2513                                          new_bd_ia32_OrMem, new_bd_ia32_OrMem8Bit,
2514                                          match_commutative | match_immediate);
2515                 break;
2516         case iro_Eor:
2517                 op1      = get_Eor_left(val);
2518                 op2      = get_Eor_right(val);
2519                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2520                                          new_bd_ia32_XorMem, new_bd_ia32_XorMem8Bit,
2521                                          match_commutative | match_immediate);
2522                 break;
2523         case iro_Shl:
2524                 op1      = get_Shl_left(val);
2525                 op2      = get_Shl_right(val);
2526                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2527                                          new_bd_ia32_ShlMem, new_bd_ia32_ShlMem,
2528                                          match_immediate);
2529                 break;
2530         case iro_Shr:
2531                 op1      = get_Shr_left(val);
2532                 op2      = get_Shr_right(val);
2533                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2534                                          new_bd_ia32_ShrMem, new_bd_ia32_ShrMem,
2535                                          match_immediate);
2536                 break;
2537         case iro_Shrs:
2538                 op1      = get_Shrs_left(val);
2539                 op2      = get_Shrs_right(val);
2540                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2541                                          new_bd_ia32_SarMem, new_bd_ia32_SarMem,
2542                                          match_immediate);
2543                 break;
2544         case iro_Rotl:
2545                 op1      = get_Rotl_left(val);
2546                 op2      = get_Rotl_right(val);
2547                 new_node = dest_am_binop(val, op1, op2, mem, ptr, mode,
2548                                          new_bd_ia32_RolMem, new_bd_ia32_RolMem,
2549                                          match_immediate);
2550                 break;
2551         /* TODO: match ROR patterns... */
2552         case iro_Mux:
2553                 new_node = try_create_SetMem(val, ptr, mem);
2554                 break;
2555
2556         case iro_Minus:
2557                 op1      = get_Minus_op(val);
2558                 new_node = dest_am_unop(val, op1, mem, ptr, mode, new_bd_ia32_NegMem);
2559                 break;
2560         case iro_Not:
2561                 /* should be lowered already */
2562                 assert(mode != mode_b);
2563                 op1      = get_Not_op(val);
2564                 new_node = dest_am_unop(val, op1, mem, ptr, mode, new_bd_ia32_NotMem);
2565                 break;
2566         default:
2567                 return NULL;
2568         }
2569
2570         if (new_node != NULL) {
2571                 if (get_irn_pinned(new_node) != op_pin_state_pinned &&
2572                                 get_irn_pinned(node) == op_pin_state_pinned) {
2573                         set_irn_pinned(new_node, op_pin_state_pinned);
2574                 }
2575         }
2576
2577         return new_node;
2578 }
2579
2580 static bool possible_int_mode_for_fp(ir_mode *mode)
2581 {
2582         unsigned size;
2583
2584         if (!mode_is_signed(mode))
2585                 return false;
2586         size = get_mode_size_bits(mode);
2587         if (size != 16 && size != 32)
2588                 return false;
2589         return true;
2590 }
2591
2592 static int is_float_to_int_conv(const ir_node *node)
2593 {
2594         ir_mode  *mode = get_irn_mode(node);
2595         ir_node  *conv_op;
2596         ir_mode  *conv_mode;
2597
2598         if (!possible_int_mode_for_fp(mode))
2599                 return 0;
2600
2601         if (!is_Conv(node))
2602                 return 0;
2603         conv_op   = get_Conv_op(node);
2604         conv_mode = get_irn_mode(conv_op);
2605
2606         if (!mode_is_float(conv_mode))
2607                 return 0;
2608
2609         return 1;
2610 }
2611
2612 /**
2613  * Transform a Store(floatConst) into a sequence of
2614  * integer stores.
2615  *
2616  * @return the created ia32 Store node
2617  */
2618 static ir_node *gen_float_const_Store(ir_node *node, ir_node *cns)
2619 {
2620         ir_mode        *mode      = get_irn_mode(cns);
2621         unsigned        size      = get_mode_size_bytes(mode);
2622         ir_tarval      *tv        = get_Const_tarval(cns);
2623         ir_node        *block     = get_nodes_block(node);
2624         ir_node        *new_block = be_transform_node(block);
2625         ir_node        *ptr       = get_Store_ptr(node);
2626         ir_node        *mem       = get_Store_mem(node);
2627         dbg_info       *dbgi      = get_irn_dbg_info(node);
2628         int             ofs       = 0;
2629         int             i         = 0;
2630         int             throws_exception = ir_throws_exception(node);
2631         ir_node        *ins[4];
2632         ia32_address_t  addr;
2633
2634         assert(size % 4 ==  0);
2635         assert(size     <= 16);
2636
2637         build_address_ptr(&addr, ptr, mem);
2638
2639         do {
2640                 unsigned val =
2641                          get_tarval_sub_bits(tv, ofs)            |
2642                         (get_tarval_sub_bits(tv, ofs + 1) <<  8) |
2643                         (get_tarval_sub_bits(tv, ofs + 2) << 16) |
2644                         (get_tarval_sub_bits(tv, ofs + 3) << 24);
2645                 ir_node *imm = ia32_create_Immediate(NULL, 0, val);
2646
2647                 ir_node *new_node = new_bd_ia32_Store(dbgi, new_block, addr.base,
2648                         addr.index, addr.mem, imm);
2649                 ir_node *new_mem  = new_r_Proj(new_node, mode_M, pn_ia32_Store_M);
2650
2651                 ir_set_throws_exception(new_node, throws_exception);
2652                 set_irn_pinned(new_node, get_irn_pinned(node));
2653                 set_ia32_op_type(new_node, ia32_AddrModeD);
2654                 set_ia32_ls_mode(new_node, mode_Iu);
2655                 set_address(new_node, &addr);
2656                 SET_IA32_ORIG_NODE(new_node, node);
2657
2658                 assert(i < 4);
2659                 ins[i++] = new_mem;
2660
2661                 size        -= 4;
2662                 ofs         += 4;
2663                 addr.offset += 4;
2664         } while (size != 0);
2665
2666         if (i > 1) {
2667                 return new_rd_Sync(dbgi, new_block, i, ins);
2668         } else {
2669                 return get_Proj_pred(ins[0]);
2670         }
2671 }
2672
2673 /**
2674  * Generate a vfist or vfisttp instruction.
2675  */
2676 static ir_node *gen_vfist(dbg_info *dbgi, ir_node *block, ir_node *base,
2677                           ir_node *index, ir_node *mem,  ir_node *val)
2678 {
2679         if (ia32_cg_config.use_fisttp) {
2680                 /* Note: fisttp ALWAYS pop the tos. We have to ensure here that the value is copied
2681                 if other users exists */
2682                 ir_node *vfisttp = new_bd_ia32_vfisttp(dbgi, block, base, index, mem, val);
2683                 ir_node *value   = new_r_Proj(vfisttp, mode_E, pn_ia32_vfisttp_res);
2684                 be_new_Keep(block, 1, &value);
2685
2686                 return vfisttp;
2687         } else {
2688                 ir_node *trunc_mode = ia32_new_Fpu_truncate(current_ir_graph);
2689
2690                 /* do a fist */
2691                 ir_node *vfist = new_bd_ia32_vfist(dbgi, block, base, index, mem, val, trunc_mode);
2692                 return vfist;
2693         }
2694 }
2695
2696 /**
2697  * Transforms a general (no special case) Store.
2698  *
2699  * @return the created ia32 Store node
2700  */
2701 static ir_node *gen_general_Store(ir_node *node)
2702 {
2703         ir_node  *val       = get_Store_value(node);
2704         ir_mode  *mode      = get_irn_mode(val);
2705         ir_node  *block     = get_nodes_block(node);
2706         ir_node  *new_block = be_transform_node(block);
2707         ir_node  *ptr       = get_Store_ptr(node);
2708         ir_node  *mem       = get_Store_mem(node);
2709         dbg_info *dbgi      = get_irn_dbg_info(node);
2710         int       throws_exception = ir_throws_exception(node);
2711         ir_node  *new_val;
2712         ir_node  *new_node;
2713         ia32_address_t addr;
2714
2715         /* check for destination address mode */
2716         new_node = try_create_dest_am(node);
2717         if (new_node != NULL)
2718                 return new_node;
2719
2720         /* construct store address */
2721         memset(&addr, 0, sizeof(addr));
2722         ia32_create_address_mode(&addr, ptr, ia32_create_am_normal);
2723
2724         if (addr.base == NULL) {
2725                 addr.base = noreg_GP;
2726         } else {
2727                 addr.base = be_transform_node(addr.base);
2728         }
2729
2730         if (addr.index == NULL) {
2731                 addr.index = noreg_GP;
2732         } else {
2733                 addr.index = be_transform_node(addr.index);
2734         }
2735         addr.mem = be_transform_node(mem);
2736
2737         if (mode_is_float(mode)) {
2738                 /* Convs (and strict-Convs) before stores are unnecessary if the mode
2739                    is the same. */
2740                 while (is_Conv(val) && mode == get_irn_mode(val)) {
2741                         ir_node *op = get_Conv_op(val);
2742                         if (!mode_is_float(get_irn_mode(op)))
2743                                 break;
2744                         val = op;
2745                 }
2746                 new_val = be_transform_node(val);
2747                 if (ia32_cg_config.use_sse2) {
2748                         new_node = new_bd_ia32_xStore(dbgi, new_block, addr.base,
2749                                                       addr.index, addr.mem, new_val);
2750                 } else {
2751                         new_node = new_bd_ia32_vfst(dbgi, new_block, addr.base,
2752                                                     addr.index, addr.mem, new_val, mode);
2753                 }
2754         } else if (!ia32_cg_config.use_sse2 && is_float_to_int_conv(val)) {
2755                 val = get_Conv_op(val);
2756
2757                 /* TODO: is this optimisation still necessary at all (middleend)? */
2758                 /* We can skip ALL float->float up-Convs (and strict-up-Convs) before
2759                  * stores. */
2760                 while (is_Conv(val)) {
2761                         ir_node *op = get_Conv_op(val);
2762                         if (!mode_is_float(get_irn_mode(op)))
2763                                 break;
2764                         if (get_mode_size_bits(get_irn_mode(op)) > get_mode_size_bits(get_irn_mode(val)))
2765                                 break;
2766                         val = op;
2767                 }
2768                 new_val  = be_transform_node(val);
2769                 new_node = gen_vfist(dbgi, new_block, addr.base, addr.index, addr.mem, new_val);
2770         } else {
2771                 new_val = create_immediate_or_transform(val, 0);
2772                 assert(mode != mode_b);
2773
2774                 if (get_mode_size_bits(mode) == 8) {
2775                         new_node = new_bd_ia32_Store8Bit(dbgi, new_block, addr.base,
2776                                                          addr.index, addr.mem, new_val);
2777                 } else {
2778                         new_node = new_bd_ia32_Store(dbgi, new_block, addr.base,
2779                                                      addr.index, addr.mem, new_val);
2780                 }
2781         }
2782         ir_set_throws_exception(new_node, throws_exception);
2783
2784         set_irn_pinned(new_node, get_irn_pinned(node));
2785         set_ia32_op_type(new_node, ia32_AddrModeD);
2786         set_ia32_ls_mode(new_node, mode);
2787
2788         set_address(new_node, &addr);
2789         SET_IA32_ORIG_NODE(new_node, node);
2790
2791         return new_node;
2792 }
2793
2794 /**
2795  * Transforms a Store.
2796  *
2797  * @return the created ia32 Store node
2798  */
2799 static ir_node *gen_Store(ir_node *node)
2800 {
2801         ir_node  *val  = get_Store_value(node);
2802         ir_mode  *mode = get_irn_mode(val);
2803
2804         if (mode_is_float(mode) && is_Const(val)) {
2805                 /* We can transform every floating const store
2806                    into a sequence of integer stores.
2807                    If the constant is already in a register,
2808                    it would be better to use it, but we don't
2809                    have this information here. */
2810                 return gen_float_const_Store(node, val);
2811         }
2812         return gen_general_Store(node);
2813 }
2814
2815 /**
2816  * Transforms a Switch.
2817  *
2818  * @return the created ia32 SwitchJmp node
2819  */
2820 static ir_node *create_Switch(ir_node *node)
2821 {
2822         dbg_info  *dbgi       = get_irn_dbg_info(node);
2823         ir_node   *block      = be_transform_node(get_nodes_block(node));
2824         ir_node   *sel        = get_Cond_selector(node);
2825         ir_node   *new_sel    = be_transform_node(sel);
2826         long       default_pn = get_Cond_default_proj(node);
2827         ir_node   *new_node;
2828         ir_entity *entity;
2829
2830         assert(get_mode_size_bits(get_irn_mode(sel)) == 32);
2831
2832         entity = new_entity(NULL, id_unique("TBL%u"), get_unknown_type());
2833         set_entity_visibility(entity, ir_visibility_private);
2834         add_entity_linkage(entity, IR_LINKAGE_CONSTANT);
2835
2836         /* TODO: we could perform some more matching here to also use the base
2837          * register of the address mode */
2838         new_node
2839                 = new_bd_ia32_SwitchJmp(dbgi, block, noreg_GP, new_sel, default_pn);
2840         set_ia32_am_scale(new_node, 2);
2841         set_ia32_am_sc(new_node, entity);
2842         set_ia32_op_type(new_node, ia32_AddrModeS);
2843         set_ia32_ls_mode(new_node, mode_Iu);
2844         SET_IA32_ORIG_NODE(new_node, node);
2845         // FIXME This seems wrong. GCC uses PIC for switch on OS X.
2846         get_ia32_attr(new_node)->data.am_sc_no_pic_adjust = true;
2847
2848         return new_node;
2849 }
2850
2851 /**
2852  * Transform a Cond node.
2853  */
2854 static ir_node *gen_Cond(ir_node *node)
2855 {
2856         ir_node              *block     = get_nodes_block(node);
2857         ir_node              *new_block = be_transform_node(block);
2858         dbg_info             *dbgi      = get_irn_dbg_info(node);
2859         ir_node              *sel       = get_Cond_selector(node);
2860         ir_mode              *sel_mode  = get_irn_mode(sel);
2861         ir_node              *flags     = NULL;
2862         ir_node              *new_node;
2863         ia32_condition_code_t cc;
2864
2865         if (sel_mode != mode_b) {
2866                 return create_Switch(node);
2867         }
2868
2869         /* we get flags from a Cmp */
2870         flags = get_flags_node(sel, &cc);
2871
2872         new_node = new_bd_ia32_Jcc(dbgi, new_block, flags, cc);
2873         SET_IA32_ORIG_NODE(new_node, node);
2874
2875         return new_node;
2876 }
2877
2878 /**
2879  * Transform a be_Copy.
2880  */
2881 static ir_node *gen_be_Copy(ir_node *node)
2882 {
2883         ir_node *new_node = be_duplicate_node(node);
2884         ir_mode *mode     = get_irn_mode(new_node);
2885
2886         if (ia32_mode_needs_gp_reg(mode)) {
2887                 set_irn_mode(new_node, mode_Iu);
2888         }
2889
2890         return new_node;
2891 }
2892
2893 static ir_node *create_Fucom(ir_node *node)
2894 {
2895         dbg_info *dbgi      = get_irn_dbg_info(node);
2896         ir_node  *block     = get_nodes_block(node);
2897         ir_node  *new_block = be_transform_node(block);
2898         ir_node  *left      = get_Cmp_left(node);
2899         ir_node  *new_left  = be_transform_node(left);
2900         ir_node  *right     = get_Cmp_right(node);
2901         ir_node  *new_right;
2902         ir_node  *new_node;
2903
2904         if (ia32_cg_config.use_fucomi) {
2905                 new_right = be_transform_node(right);
2906                 new_node  = new_bd_ia32_vFucomi(dbgi, new_block, new_left,
2907                                                 new_right, 0);
2908                 set_ia32_commutative(new_node);
2909                 SET_IA32_ORIG_NODE(new_node, node);
2910         } else {
2911                 if (ia32_cg_config.use_ftst && is_Const_0(right)) {
2912                         new_node = new_bd_ia32_vFtstFnstsw(dbgi, new_block, new_left, 0);
2913                 } else {
2914                         new_right = be_transform_node(right);
2915                         new_node  = new_bd_ia32_vFucomFnstsw(dbgi, new_block, new_left, new_right, 0);
2916                 }
2917
2918                 set_ia32_commutative(new_node);
2919
2920                 SET_IA32_ORIG_NODE(new_node, node);
2921
2922                 new_node = new_bd_ia32_Sahf(dbgi, new_block, new_node);
2923                 SET_IA32_ORIG_NODE(new_node, node);
2924         }
2925
2926         return new_node;
2927 }
2928
2929 static ir_node *create_Ucomi(ir_node *node)
2930 {
2931         dbg_info *dbgi      = get_irn_dbg_info(node);
2932         ir_node  *src_block = get_nodes_block(node);
2933         ir_node  *new_block = be_transform_node(src_block);
2934         ir_node  *left      = get_Cmp_left(node);
2935         ir_node  *right     = get_Cmp_right(node);
2936         ir_node  *new_node;
2937         ia32_address_mode_t  am;
2938         ia32_address_t      *addr = &am.addr;
2939
2940         match_arguments(&am, src_block, left, right, NULL,
2941                         match_commutative | match_am);
2942
2943         new_node = new_bd_ia32_Ucomi(dbgi, new_block, addr->base, addr->index,
2944                                      addr->mem, am.new_op1, am.new_op2,
2945                                      am.ins_permuted);
2946         set_am_attributes(new_node, &am);
2947
2948         SET_IA32_ORIG_NODE(new_node, node);
2949
2950         new_node = fix_mem_proj(new_node, &am);
2951
2952         return new_node;
2953 }
2954
2955 /**
2956  * returns true if it is assured, that the upper bits of a node are "clean"
2957  * which means for a 16 or 8 bit value, that the upper bits in the register
2958  * are 0 for unsigned and a copy of the last significant bit for signed
2959  * numbers.
2960  */
2961 static bool upper_bits_clean(ir_node *transformed_node, ir_mode *mode)
2962 {
2963         assert(ia32_mode_needs_gp_reg(mode));
2964         if (get_mode_size_bits(mode) >= 32)
2965                 return true;
2966
2967         if (is_Proj(transformed_node))
2968                 return upper_bits_clean(get_Proj_pred(transformed_node), mode);
2969
2970         switch (get_ia32_irn_opcode(transformed_node)) {
2971                 case iro_ia32_Conv_I2I:
2972                 case iro_ia32_Conv_I2I8Bit: {
2973                         ir_mode *smaller_mode = get_ia32_ls_mode(transformed_node);
2974                         if (mode_is_signed(smaller_mode) != mode_is_signed(mode))
2975                                 return false;
2976                         if (get_mode_size_bits(smaller_mode) > get_mode_size_bits(mode))
2977                                 return false;
2978
2979                         return true;
2980                 }
2981
2982                 case iro_ia32_Shr:
2983                         if (mode_is_signed(mode)) {
2984                                 return false; /* TODO handle signed modes */
2985                         } else {
2986                                 ir_node *right = get_irn_n(transformed_node, n_ia32_Shr_count);
2987                                 if (is_ia32_Immediate(right) || is_ia32_Const(right)) {
2988                                         const ia32_immediate_attr_t *attr
2989                                                 = get_ia32_immediate_attr_const(right);
2990                                         if (attr->symconst == 0 &&
2991                                                         (unsigned)attr->offset >= 32 - get_mode_size_bits(mode)) {
2992                                                 return true;
2993                                         }
2994                                 }
2995                                 return upper_bits_clean(get_irn_n(transformed_node, n_ia32_Shr_val), mode);
2996                         }
2997
2998                 case iro_ia32_Sar:
2999                         /* TODO too conservative if shift amount is constant */
3000                         return upper_bits_clean(get_irn_n(transformed_node, n_ia32_Sar_val), mode);
3001
3002                 case iro_ia32_And:
3003                         if (!mode_is_signed(mode)) {
3004                                 return
3005                                         upper_bits_clean(get_irn_n(transformed_node, n_ia32_And_right), mode) ||
3006                                         upper_bits_clean(get_irn_n(transformed_node, n_ia32_And_left),  mode);
3007                         }
3008                         /* TODO if one is known to be zero extended, then || is sufficient */
3009                         /* FALLTHROUGH */
3010                 case iro_ia32_Or:
3011                 case iro_ia32_Xor:
3012                         return
3013                                 upper_bits_clean(get_irn_n(transformed_node, n_ia32_binary_right), mode) &&
3014                                 upper_bits_clean(get_irn_n(transformed_node, n_ia32_binary_left),  mode);
3015
3016                 case iro_ia32_Const:
3017                 case iro_ia32_Immediate: {
3018                         const ia32_immediate_attr_t *attr =
3019                                 get_ia32_immediate_attr_const(transformed_node);
3020                         if (mode_is_signed(mode)) {
3021                                 long shifted = attr->offset >> (get_mode_size_bits(mode) - 1);
3022                                 return shifted == 0 || shifted == -1;
3023                         } else {
3024                                 unsigned long shifted = (unsigned long)attr->offset;
3025                                 shifted >>= get_mode_size_bits(mode)-1;
3026                                 shifted >>= 1;
3027                                 return shifted == 0;
3028                         }
3029                 }
3030
3031                 default:
3032                         return false;
3033         }
3034 }
3035
3036 /**
3037  * Generate code for a Cmp.
3038  */
3039 static ir_node *gen_Cmp(ir_node *node)
3040 {
3041         dbg_info *dbgi      = get_irn_dbg_info(node);
3042         ir_node  *block     = get_nodes_block(node);
3043         ir_node  *new_block = be_transform_node(block);
3044         ir_node  *left      = get_Cmp_left(node);
3045         ir_node  *right     = get_Cmp_right(node);
3046         ir_mode  *cmp_mode  = get_irn_mode(left);
3047         ir_node  *new_node;
3048         ia32_address_mode_t  am;
3049         ia32_address_t      *addr = &am.addr;
3050
3051         if (mode_is_float(cmp_mode)) {
3052                 if (ia32_cg_config.use_sse2) {
3053                         return create_Ucomi(node);
3054                 } else {
3055                         return create_Fucom(node);
3056                 }
3057         }
3058
3059         assert(ia32_mode_needs_gp_reg(cmp_mode));
3060
3061         /* Prefer the Test instruction, when encountering (x & y) ==/!= 0 */
3062         if (is_Const_0(right)          &&
3063             is_And(left)               &&
3064             get_irn_n_edges(left) == 1) {
3065                 /* Test(and_left, and_right) */
3066                 ir_node *and_left  = get_And_left(left);
3067                 ir_node *and_right = get_And_right(left);
3068
3069                 /* matze: code here used mode instead of cmd_mode, I think it is always
3070                  * the same as cmp_mode, but I leave this here to see if this is really
3071                  * true...
3072                  */
3073                 assert(get_irn_mode(and_left) == cmp_mode);
3074
3075                 match_arguments(&am, block, and_left, and_right, NULL,
3076                                                                                 match_commutative |
3077                                                                                 match_am | match_8bit_am | match_16bit_am |
3078                                                                                 match_am_and_immediates | match_immediate);
3079
3080                 /* use 32bit compare mode if possible since the opcode is smaller */
3081                 if (upper_bits_clean(am.new_op1, cmp_mode) &&
3082                     upper_bits_clean(am.new_op2, cmp_mode)) {
3083                         cmp_mode = mode_is_signed(cmp_mode) ? mode_Is : mode_Iu;
3084                 }
3085
3086                 if (get_mode_size_bits(cmp_mode) == 8) {
3087                         new_node = new_bd_ia32_Test8Bit(dbgi, new_block, addr->base,
3088                                         addr->index, addr->mem, am.new_op1, am.new_op2, am.ins_permuted);
3089                 } else {
3090                         new_node = new_bd_ia32_Test(dbgi, new_block, addr->base, addr->index,
3091                                         addr->mem, am.new_op1, am.new_op2, am.ins_permuted);
3092                 }
3093         } else {
3094                 /* Cmp(left, right) */
3095                 match_arguments(&am, block, left, right, NULL,
3096                                 match_commutative | match_am | match_8bit_am |
3097                                 match_16bit_am | match_am_and_immediates |
3098                                 match_immediate);
3099                 /* use 32bit compare mode if possible since the opcode is smaller */
3100                 if (upper_bits_clean(am.new_op1, cmp_mode) &&
3101                     upper_bits_clean(am.new_op2, cmp_mode)) {
3102                         cmp_mode = mode_is_signed(cmp_mode) ? mode_Is : mode_Iu;
3103                 }
3104
3105                 if (get_mode_size_bits(cmp_mode) == 8) {
3106                         new_node = new_bd_ia32_Cmp8Bit(dbgi, new_block, addr->base,
3107                                                        addr->index, addr->mem, am.new_op1,
3108                                                        am.new_op2, am.ins_permuted);
3109                 } else {
3110                         new_node = new_bd_ia32_Cmp(dbgi, new_block, addr->base, addr->index,
3111                                         addr->mem, am.new_op1, am.new_op2, am.ins_permuted);
3112                 }
3113         }
3114         set_am_attributes(new_node, &am);
3115         set_ia32_ls_mode(new_node, cmp_mode);
3116
3117         SET_IA32_ORIG_NODE(new_node, node);
3118
3119         new_node = fix_mem_proj(new_node, &am);
3120
3121         return new_node;
3122 }
3123
3124 static ir_node *create_CMov(ir_node *node, ir_node *flags, ir_node *new_flags,
3125                             ia32_condition_code_t cc)
3126 {
3127         dbg_info            *dbgi          = get_irn_dbg_info(node);
3128         ir_node             *block         = get_nodes_block(node);
3129         ir_node             *new_block     = be_transform_node(block);
3130         ir_node             *val_true      = get_Mux_true(node);
3131         ir_node             *val_false     = get_Mux_false(node);
3132         ir_node             *new_node;
3133         ia32_address_mode_t  am;
3134         ia32_address_t      *addr;
3135
3136         assert(ia32_cg_config.use_cmov);
3137         assert(ia32_mode_needs_gp_reg(get_irn_mode(val_true)));
3138
3139         addr = &am.addr;
3140
3141         match_arguments(&am, block, val_false, val_true, flags,
3142                         match_commutative | match_am | match_16bit_am | match_mode_neutral);
3143
3144         if (am.ins_permuted)
3145                 cc = ia32_negate_condition_code(cc);
3146
3147         new_node = new_bd_ia32_CMovcc(dbgi, new_block, addr->base, addr->index,
3148                                       addr->mem, am.new_op1, am.new_op2, new_flags,
3149                                       cc);
3150         set_am_attributes(new_node, &am);
3151
3152         SET_IA32_ORIG_NODE(new_node, node);
3153
3154         new_node = fix_mem_proj(new_node, &am);
3155
3156         return new_node;
3157 }
3158
3159 /**
3160  * Creates a ia32 Setcc instruction.
3161  */
3162 static ir_node *create_set_32bit(dbg_info *dbgi, ir_node *new_block,
3163                                  ir_node *flags, ia32_condition_code_t cc,
3164                                  ir_node *orig_node)
3165 {
3166         ir_mode *mode  = get_irn_mode(orig_node);
3167         ir_node *new_node;
3168
3169         new_node = new_bd_ia32_Setcc(dbgi, new_block, flags, cc);
3170         SET_IA32_ORIG_NODE(new_node, orig_node);
3171
3172         /* we might need to conv the result up */
3173         if (get_mode_size_bits(mode) > 8) {
3174                 new_node = new_bd_ia32_Conv_I2I8Bit(dbgi, new_block, noreg_GP, noreg_GP,
3175                                                     nomem, new_node, mode_Bu);
3176                 SET_IA32_ORIG_NODE(new_node, orig_node);
3177         }
3178
3179         return new_node;
3180 }
3181
3182 /**
3183  * Create instruction for an unsigned Difference or Zero.
3184  */
3185 static ir_node *create_doz(ir_node *psi, ir_node *a, ir_node *b)
3186 {
3187         ir_mode *mode  = get_irn_mode(psi);
3188         ir_node *new_node;
3189         ir_node *sub;
3190         ir_node *sbb;
3191         ir_node *notn;
3192         ir_node *eflags;
3193         ir_node *block;
3194
3195         dbg_info *dbgi;
3196
3197         new_node = gen_binop(psi, a, b, new_bd_ia32_Sub,
3198                 match_mode_neutral | match_am | match_immediate | match_two_users);
3199
3200         block = get_nodes_block(new_node);
3201
3202         if (is_Proj(new_node)) {
3203                 sub = get_Proj_pred(new_node);
3204         } else {
3205                 sub = new_node;
3206                 set_irn_mode(sub, mode_T);
3207                 new_node = new_rd_Proj(NULL, sub, mode, pn_ia32_res);
3208         }
3209         assert(is_ia32_Sub(sub));
3210         eflags = new_rd_Proj(NULL, sub, mode_Iu, pn_ia32_Sub_flags);
3211
3212         dbgi = get_irn_dbg_info(psi);
3213         sbb  = new_bd_ia32_Sbb0(dbgi, block, eflags);
3214         notn = new_bd_ia32_Not(dbgi, block, sbb);
3215
3216         new_node = new_bd_ia32_And(dbgi, block, noreg_GP, noreg_GP, nomem, new_node, notn);
3217         set_ia32_commutative(new_node);
3218         return new_node;
3219 }
3220
3221 /**
3222  * Create an const array of two float consts.
3223  *
3224  * @param c0        the first constant
3225  * @param c1        the second constant
3226  * @param new_mode  IN/OUT for the mode of the constants, if NULL
3227  *                  smallest possible mode will be used
3228  */
3229 static ir_entity *ia32_create_const_array(ir_node *c0, ir_node *c1, ir_mode **new_mode)
3230 {
3231         ir_entity        *ent;
3232         ir_mode          *mode = *new_mode;
3233         ir_type          *tp;
3234         ir_initializer_t *initializer;
3235         ir_tarval        *tv0 = get_Const_tarval(c0);
3236         ir_tarval        *tv1 = get_Const_tarval(c1);
3237
3238         if (mode == NULL) {
3239                 /* detect the best mode for the constants */
3240                 mode = get_tarval_mode(tv0);
3241
3242                 if (mode != mode_F) {
3243                         if (tarval_ieee754_can_conv_lossless(tv0, mode_F) &&
3244                             tarval_ieee754_can_conv_lossless(tv1, mode_F)) {
3245                                 mode = mode_F;
3246                                 tv0 = tarval_convert_to(tv0, mode);
3247                                 tv1 = tarval_convert_to(tv1, mode);
3248                         } else if (mode != mode_D) {
3249                                 if (tarval_ieee754_can_conv_lossless(tv0, mode_D) &&
3250                                     tarval_ieee754_can_conv_lossless(tv1, mode_D)) {
3251                                         mode = mode_D;
3252                                         tv0 = tarval_convert_to(tv0, mode);
3253                                         tv1 = tarval_convert_to(tv1, mode);
3254                                 }
3255                         }
3256                 }
3257
3258         }
3259
3260         tp = ia32_create_float_type(mode, 4);
3261         tp = ia32_create_float_array(tp);
3262
3263         ent = new_entity(get_glob_type(), id_unique("C%u"), tp);
3264
3265         set_entity_ld_ident(ent, get_entity_ident(ent));
3266         set_entity_visibility(ent, ir_visibility_private);
3267         add_entity_linkage(ent, IR_LINKAGE_CONSTANT);
3268
3269         initializer = create_initializer_compound(2);
3270
3271         set_initializer_compound_value(initializer, 0, create_initializer_tarval(tv0));
3272         set_initializer_compound_value(initializer, 1, create_initializer_tarval(tv1));
3273
3274         set_entity_initializer(ent, initializer);
3275
3276         *new_mode = mode;
3277         return ent;
3278 }
3279
3280 /**
3281  * Possible transformations for creating a Setcc.
3282  */
3283 enum setcc_transform_insn {
3284         SETCC_TR_ADD,
3285         SETCC_TR_ADDxx,
3286         SETCC_TR_LEA,
3287         SETCC_TR_LEAxx,
3288         SETCC_TR_SHL,
3289         SETCC_TR_NEG,
3290         SETCC_TR_NOT,
3291         SETCC_TR_AND,
3292         SETCC_TR_SET,
3293         SETCC_TR_SBB,
3294 };
3295
3296 typedef struct setcc_transform {
3297         unsigned              num_steps;
3298         ia32_condition_code_t cc;
3299         struct {
3300                 enum setcc_transform_insn  transform;
3301                 long val;
3302                 int  scale;
3303         } steps[4];
3304 } setcc_transform_t;
3305
3306 /**
3307  * Setcc can only handle 0 and 1 result.
3308  * Find a transformation that creates 0 and 1 from
3309  * tv_t and tv_f.
3310  */
3311 static void find_const_transform(ia32_condition_code_t cc,
3312                                  ir_tarval *t, ir_tarval *f,
3313                                  setcc_transform_t *res)
3314 {
3315         unsigned step = 0;
3316
3317         res->num_steps = 0;
3318
3319         if (tarval_is_null(t)) {
3320                 ir_tarval *tmp = t;
3321                 t = f;
3322                 f = tmp;
3323                 cc = ia32_negate_condition_code(cc);
3324         } else if (tarval_cmp(t, f) == ir_relation_less) {
3325                 // now, t is the bigger one
3326                 ir_tarval *tmp = t;
3327                 t = f;
3328                 f = tmp;
3329                 cc = ia32_negate_condition_code(cc);
3330         }
3331         res->cc = cc;
3332
3333         if (! tarval_is_null(f)) {
3334                 ir_tarval *t_sub = tarval_sub(t, f, NULL);
3335
3336                 t = t_sub;
3337                 res->steps[step].transform = SETCC_TR_ADD;
3338
3339                 if (t == tarval_bad)
3340                         panic("constant subtract failed");
3341                 if (! tarval_is_long(f))
3342                         panic("tarval is not long");
3343
3344                 res->steps[step].val = get_tarval_long(f);
3345                 ++step;
3346                 f = tarval_sub(f, f, NULL);
3347                 assert(tarval_is_null(f));
3348         }
3349
3350         if (tarval_is_one(t)) {
3351                 res->steps[step].transform = SETCC_TR_SET;
3352                 res->num_steps = ++step;
3353                 return;
3354         }
3355
3356         if (tarval_is_minus_one(t)) {
3357                 res->steps[step].transform = SETCC_TR_NEG;
3358                 ++step;
3359                 res->steps[step].transform = SETCC_TR_SET;
3360                 res->num_steps = ++step;
3361                 return;
3362         }
3363         if (tarval_is_long(t)) {
3364                 long v = get_tarval_long(t);
3365
3366                 res->steps[step].val = 0;
3367                 switch (v) {
3368                 case 9:
3369                         if (step > 0 && res->steps[step - 1].transform == SETCC_TR_ADD)
3370                                 --step;
3371                         res->steps[step].transform = SETCC_TR_LEAxx;
3372                         res->steps[step].scale     = 3; /* (a << 3) + a */
3373                         break;
3374                 case 8:
3375                         if (step > 0 && res->steps[step - 1].transform == SETCC_TR_ADD)
3376                                 --step;
3377                         res->steps[step].transform = res->steps[step].val == 0 ? SETCC_TR_SHL : SETCC_TR_LEA;
3378                         res->steps[step].scale     = 3; /* (a << 3) */
3379                         break;
3380                 case 5:
3381                         if (step > 0 && res->steps[step - 1].transform == SETCC_TR_ADD)
3382                                 --step;
3383                         res->steps[step].transform = SETCC_TR_LEAxx;
3384                         res->steps[step].scale     = 2; /* (a << 2) + a */
3385                         break;
3386                 case 4:
3387                         if (step > 0 && res->steps[step - 1].transform == SETCC_TR_ADD)
3388                                 --step;
3389                         res->steps[step].transform = res->steps[step].val == 0 ? SETCC_TR_SHL : SETCC_TR_LEA;
3390                         res->steps[step].scale     = 2; /* (a << 2) */
3391                         break;
3392                 case 3:
3393                         if (step > 0 && res->steps[step - 1].transform == SETCC_TR_ADD)
3394                                 --step;
3395                         res->steps[step].transform = SETCC_TR_LEAxx;
3396                         res->steps[step].scale     = 1; /* (a << 1) + a */
3397                         break;
3398                 case 2:
3399                         if (step > 0 && res->steps[step - 1].transform == SETCC_TR_ADD)
3400                                 --step;
3401                         res->steps[step].transform = res->steps[step].val == 0 ? SETCC_TR_SHL : SETCC_TR_LEA;
3402                         res->steps[step].scale     = 1; /* (a << 1) */
3403                         break;
3404                 case 1:
3405                         res->num_steps = step;
3406                         return;
3407                 default:
3408                         if (! tarval_is_single_bit(t)) {
3409                                 res->steps[step].transform = SETCC_TR_AND;
3410                                 res->steps[step].val       = v;
3411                                 ++step;
3412                                 res->steps[step].transform = SETCC_TR_NEG;
3413                         } else {
3414                                 int val = get_tarval_lowest_bit(t);
3415                                 assert(val >= 0);
3416
3417                                 res->steps[step].transform = SETCC_TR_SHL;
3418                                 res->steps[step].scale     = val;
3419                         }
3420                 }
3421                 ++step;
3422                 res->steps[step].transform = SETCC_TR_SET;
3423                 res->num_steps = ++step;
3424                 return;
3425         }
3426         panic("tarval is not long");
3427 }
3428
3429 /**
3430  * Transforms a Mux node into some code sequence.
3431  *
3432  * @return The transformed node.
3433  */
3434 static ir_node *gen_Mux(ir_node *node)
3435 {
3436         dbg_info             *dbgi      = get_irn_dbg_info(node);
3437         ir_node              *block     = get_nodes_block(node);
3438         ir_node              *new_block = be_transform_node(block);
3439         ir_node              *mux_true  = get_Mux_true(node);
3440         ir_node              *mux_false = get_Mux_false(node);
3441         ir_node              *sel       = get_Mux_sel(node);
3442         ir_mode              *mode      = get_irn_mode(node);
3443         ir_node              *flags;
3444         ir_node              *new_node;
3445         int                   is_abs;
3446         ia32_condition_code_t cc;
3447
3448         assert(get_irn_mode(sel) == mode_b);
3449
3450         is_abs = ir_mux_is_abs(sel, mux_true, mux_false);
3451         if (is_abs != 0) {
3452                 if (ia32_mode_needs_gp_reg(mode)) {
3453                         ir_fprintf(stderr, "Optimisation warning: Integer abs %+F not transformed\n",
3454                                    node);
3455                 } else {
3456                         ir_node *op = ir_get_abs_op(sel, mux_true, mux_false);
3457                         return create_float_abs(dbgi, block, op, is_abs < 0, node);
3458                 }
3459         }
3460
3461         /* Note: a Mux node uses a Load two times IFF it's used in the compare AND in the result */
3462         if (mode_is_float(mode)) {
3463                 ir_node    *cmp_left  = get_Cmp_left(sel);
3464                 ir_node    *cmp_right = get_Cmp_right(sel);
3465                 ir_relation relation  = get_Cmp_relation(sel);
3466
3467                 if (ia32_cg_config.use_sse2) {
3468                         if (relation == ir_relation_less || relation == ir_relation_less_equal) {
3469                                 if (cmp_left == mux_true && cmp_right == mux_false) {
3470                                         /* Mux(a <= b, a, b) => MIN */
3471                                         return gen_binop(node, cmp_left, cmp_right, new_bd_ia32_xMin,
3472                                          match_commutative | match_am | match_two_users);
3473                                 } else if (cmp_left == mux_false && cmp_right == mux_true) {
3474                                         /* Mux(a <= b, b, a) => MAX */
3475                                         return gen_binop(node, cmp_left, cmp_right, new_bd_ia32_xMax,
3476                                          match_commutative | match_am | match_two_users);
3477                                 }
3478                         } else if (relation == ir_relation_greater || relation == ir_relation_greater_equal) {
3479                                 if (cmp_left == mux_true && cmp_right == mux_false) {
3480                                         /* Mux(a >= b, a, b) => MAX */
3481                                         return gen_binop(node, cmp_left, cmp_right, new_bd_ia32_xMax,
3482                                          match_commutative | match_am | match_two_users);
3483                                 } else if (cmp_left == mux_false && cmp_right == mux_true) {
3484                                         /* Mux(a >= b, b, a) => MIN */
3485                                         return gen_binop(node, cmp_left, cmp_right, new_bd_ia32_xMin,
3486                                          match_commutative | match_am | match_two_users);
3487                                 }
3488                         }
3489                 }
3490
3491                 if (is_Const(mux_true) && is_Const(mux_false)) {
3492                         ia32_address_mode_t am;
3493                         ir_node             *load;
3494                         ir_mode             *new_mode;
3495                         unsigned            scale;
3496
3497                         flags    = get_flags_node(sel, &cc);
3498                         new_node = create_set_32bit(dbgi, new_block, flags, cc, node);
3499
3500                         if (ia32_cg_config.use_sse2) {
3501                                 /* cannot load from different mode on SSE */
3502                                 new_mode = mode;
3503                         } else {
3504                                 /* x87 can load any mode */
3505                                 new_mode = NULL;
3506                         }
3507
3508                         am.addr.symconst_ent = ia32_create_const_array(mux_false, mux_true, &new_mode);
3509
3510                         switch (get_mode_size_bytes(new_mode)) {
3511                         case 4:
3512                                 scale = 2;
3513                                 break;
3514                         case 8:
3515                                 scale = 3;
3516                                 break;
3517                         case 10:
3518                                 /* use 2 * 5 */
3519                                 scale = 1;
3520                                 new_node = new_bd_ia32_Lea(dbgi, new_block, new_node, new_node);
3521                                 set_ia32_am_scale(new_node, 2);
3522                                 break;
3523                         case 12:
3524                                 /* use 4 * 3 */
3525                                 scale = 2;
3526                                 new_node = new_bd_ia32_Lea(dbgi, new_block, new_node, new_node);
3527                                 set_ia32_am_scale(new_node, 1);
3528                                 break;
3529                         case 16:
3530                                 /* arg, shift 16 NOT supported */
3531                                 scale = 3;
3532                                 new_node = new_bd_ia32_Lea(dbgi, new_block, new_node, new_node);
3533                                 break;
3534                         default:
3535                                 panic("Unsupported constant size");
3536                         }
3537
3538                         am.ls_mode            = new_mode;
3539                         am.addr.base          = get_symconst_base();
3540                         am.addr.index         = new_node;
3541                         am.addr.mem           = nomem;
3542                         am.addr.offset        = 0;
3543                         am.addr.scale         = scale;
3544                         am.addr.use_frame     = 0;
3545                         am.addr.tls_segment   = false;
3546                         am.addr.frame_entity  = NULL;
3547                         am.addr.symconst_sign = 0;
3548                         am.mem_proj           = am.addr.mem;
3549                         am.op_type            = ia32_AddrModeS;
3550                         am.new_op1            = NULL;
3551                         am.new_op2            = NULL;
3552                         am.pinned             = op_pin_state_floats;
3553                         am.commutative        = 1;
3554                         am.ins_permuted       = false;
3555
3556                         if (ia32_cg_config.use_sse2)
3557                                 load = new_bd_ia32_xLoad(dbgi, block, am.addr.base, am.addr.index, am.addr.mem, new_mode);
3558                         else
3559                                 load = new_bd_ia32_vfld(dbgi, block, am.addr.base, am.addr.index, am.addr.mem, new_mode);
3560                         set_am_attributes(load, &am);
3561
3562                         return new_rd_Proj(NULL, load, mode_vfp, pn_ia32_res);
3563                 }
3564                 panic("cannot transform floating point Mux");
3565
3566         } else {
3567                 assert(ia32_mode_needs_gp_reg(mode));
3568
3569                 if (is_Cmp(sel)) {
3570                         ir_node    *cmp_left  = get_Cmp_left(sel);
3571                         ir_node    *cmp_right = get_Cmp_right(sel);
3572                         ir_relation relation  = get_Cmp_relation(sel);
3573                         ir_node    *val_true  = mux_true;
3574                         ir_node    *val_false = mux_false;
3575
3576                         if (is_Const(val_true) && is_Const_null(val_true)) {
3577                                 ir_node *tmp = val_false;
3578                                 val_false = val_true;
3579                                 val_true  = tmp;
3580                                 relation  = get_negated_relation(relation);
3581                         }
3582                         if (is_Const_0(val_false) && is_Sub(val_true)) {
3583                                 if ((relation & ir_relation_greater)
3584                                         && get_Sub_left(val_true) == cmp_left
3585                                         && get_Sub_right(val_true) == cmp_right) {
3586                                         return create_doz(node, cmp_left, cmp_right);
3587                                 }
3588                                 if ((relation & ir_relation_less)
3589                                         && get_Sub_left(val_true) == cmp_right
3590                                         && get_Sub_right(val_true) == cmp_left) {
3591                                         return create_doz(node, cmp_right, cmp_left);
3592                                 }
3593                         }
3594                 }
3595
3596                 flags = get_flags_node(sel, &cc);
3597
3598                 if (is_Const(mux_true) && is_Const(mux_false)) {
3599                         /* both are const, good */
3600                         ir_tarval *tv_true  = get_Const_tarval(mux_true);
3601                         ir_tarval *tv_false = get_Const_tarval(mux_false);
3602                         setcc_transform_t res;
3603                         int step;
3604
3605                         find_const_transform(cc, tv_true, tv_false, &res);
3606                         new_node = node;
3607                         for (step = (int)res.num_steps - 1; step >= 0; --step) {
3608                                 ir_node *imm;
3609
3610                                 switch (res.steps[step].transform) {
3611                                 case SETCC_TR_ADD:
3612                                         new_node = new_bd_ia32_Lea(dbgi, new_block, new_node, noreg_GP);
3613                                         add_ia32_am_offs_int(new_node, res.steps[step].val);
3614                                         break;
3615                                 case SETCC_TR_ADDxx:
3616                                         new_node = new_bd_ia32_Lea(dbgi, new_block, new_node, new_node);
3617                                         break;
3618                                 case SETCC_TR_LEA:
3619                                         new_node = new_bd_ia32_Lea(dbgi, new_block, noreg_GP, new_node);
3620                                         set_ia32_am_scale(new_node, res.steps[step].scale);
3621                                         set_ia32_am_offs_int(new_node, res.steps[step].val);
3622                                         break;
3623                                 case SETCC_TR_LEAxx:
3624                                         new_node = new_bd_ia32_Lea(dbgi, new_block, new_node, new_node);
3625                                         set_ia32_am_scale(new_node, res.steps[step].scale);
3626                                         set_ia32_am_offs_int(new_node, res.steps[step].val);
3627                                         break;
3628                                 case SETCC_TR_SHL:
3629                                         imm = ia32_immediate_from_long(res.steps[step].scale);
3630                                         new_node = new_bd_ia32_Shl(dbgi, new_block, new_node, imm);
3631                                         break;
3632                                 case SETCC_TR_NEG:
3633                                         new_node = new_bd_ia32_Neg(dbgi, new_block, new_node);
3634                                         break;
3635                                 case SETCC_TR_NOT:
3636                                         new_node = new_bd_ia32_Not(dbgi, new_block, new_node);
3637                                         break;
3638                                 case SETCC_TR_AND:
3639                                         imm = ia32_immediate_from_long(res.steps[step].val);
3640                                         new_node = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, new_node, imm);
3641                                         break;
3642                                 case SETCC_TR_SET:
3643                                         new_node = create_set_32bit(dbgi, new_block, flags, res.cc, node);
3644                                         break;
3645                                 case SETCC_TR_SBB:
3646                                         new_node = new_bd_ia32_Sbb0(dbgi, new_block, flags);
3647                                         break;
3648                                 default:
3649                                         panic("unknown setcc transform");
3650                                 }
3651                         }
3652                 } else {
3653                         new_node = create_CMov(node, sel, flags, cc);
3654                 }
3655                 return new_node;
3656         }
3657 }
3658
3659
3660 /**
3661  * Create a conversion from x87 state register to general purpose.
3662  */
3663 static ir_node *gen_x87_fp_to_gp(ir_node *node)
3664 {
3665         ir_node         *block      = be_transform_node(get_nodes_block(node));
3666         ir_node         *op         = get_Conv_op(node);
3667         ir_node         *new_op     = be_transform_node(op);
3668         ir_graph        *irg        = current_ir_graph;
3669         dbg_info        *dbgi       = get_irn_dbg_info(node);
3670         ir_mode         *mode       = get_irn_mode(node);
3671         ir_node         *frame      = get_irg_frame(irg);
3672         ir_node         *fist, *load, *mem;
3673
3674         fist = gen_vfist(dbgi, block, frame, noreg_GP, nomem, new_op);
3675         set_irn_pinned(fist, op_pin_state_floats);
3676         set_ia32_use_frame(fist);
3677         set_ia32_op_type(fist, ia32_AddrModeD);
3678
3679         assert((long)pn_ia32_vfist_M == (long) pn_ia32_vfisttp_M);
3680         mem = new_r_Proj(fist, mode_M, pn_ia32_vfist_M);
3681
3682         assert(get_mode_size_bits(mode) <= 32);
3683         /* exception we can only store signed 32 bit integers, so for unsigned
3684            we store a 64bit (signed) integer and load the lower bits */
3685         if (get_mode_size_bits(mode) == 32 && !mode_is_signed(mode)) {
3686                 set_ia32_ls_mode(fist, mode_Ls);
3687         } else {
3688                 set_ia32_ls_mode(fist, mode_Is);
3689         }
3690         SET_IA32_ORIG_NODE(fist, node);
3691
3692         /* do a Load */
3693         load = new_bd_ia32_Load(dbgi, block, get_irg_frame(irg), noreg_GP, mem);
3694
3695         set_irn_pinned(load, op_pin_state_floats);
3696         set_ia32_use_frame(load);
3697         set_ia32_op_type(load, ia32_AddrModeS);
3698         set_ia32_ls_mode(load, mode_Is);
3699         if (get_ia32_ls_mode(fist) == mode_Ls) {
3700                 ia32_attr_t *attr = get_ia32_attr(load);
3701                 attr->data.need_64bit_stackent = 1;
3702         } else {
3703                 ia32_attr_t *attr = get_ia32_attr(load);
3704                 attr->data.need_32bit_stackent = 1;
3705         }
3706         SET_IA32_ORIG_NODE(load, node);
3707
3708         return new_r_Proj(load, mode_Iu, pn_ia32_Load_res);
3709 }
3710
3711 /**
3712  * Creates a x87 strict Conv by placing a Store and a Load
3713  */
3714 static ir_node *gen_x87_strict_conv(ir_mode *tgt_mode, ir_node *node)
3715 {
3716         ir_node  *block    = get_nodes_block(node);
3717         ir_graph *irg      = get_Block_irg(block);
3718         dbg_info *dbgi     = get_irn_dbg_info(node);
3719         ir_node  *frame    = get_irg_frame(irg);
3720         ir_node  *store_mem;
3721         ir_node  *store, *load;
3722         ir_node  *new_node;
3723
3724         store = new_bd_ia32_vfst(dbgi, block, frame, noreg_GP, nomem, node, tgt_mode);
3725         set_ia32_use_frame(store);
3726         set_ia32_op_type(store, ia32_AddrModeD);
3727         SET_IA32_ORIG_NODE(store, node);
3728
3729         store_mem = new_r_Proj(store, mode_M, pn_ia32_vfst_M);
3730
3731         load = new_bd_ia32_vfld(dbgi, block, frame, noreg_GP, store_mem, tgt_mode);
3732         set_ia32_use_frame(load);
3733         set_ia32_op_type(load, ia32_AddrModeS);
3734         SET_IA32_ORIG_NODE(load, node);
3735
3736         new_node = new_r_Proj(load, mode_E, pn_ia32_vfld_res);
3737         return new_node;
3738 }
3739
3740 static ir_node *create_Conv_I2I(dbg_info *dbgi, ir_node *block, ir_node *base,
3741                 ir_node *index, ir_node *mem, ir_node *val, ir_mode *mode)
3742 {
3743         ir_node *(*func)(dbg_info*, ir_node*, ir_node*, ir_node*, ir_node*, ir_node*, ir_mode*);
3744
3745         func = get_mode_size_bits(mode) == 8 ?
3746                 new_bd_ia32_Conv_I2I8Bit : new_bd_ia32_Conv_I2I;
3747         return func(dbgi, block, base, index, mem, val, mode);
3748 }
3749
3750 /**
3751  * Create a conversion from general purpose to x87 register
3752  */
3753 static ir_node *gen_x87_gp_to_fp(ir_node *node, ir_mode *src_mode)
3754 {
3755         ir_node  *src_block = get_nodes_block(node);
3756         ir_node  *block     = be_transform_node(src_block);
3757         ir_graph *irg       = get_Block_irg(block);
3758         dbg_info *dbgi      = get_irn_dbg_info(node);
3759         ir_node  *op        = get_Conv_op(node);
3760         ir_node  *new_op    = NULL;
3761         ir_mode  *mode;
3762         ir_mode  *store_mode;
3763         ir_node  *fild;
3764         ir_node  *store;
3765         ir_node  *store_mem;
3766         ir_node  *new_node;
3767
3768         /* fild can use source AM if the operand is a signed 16bit or 32bit integer */
3769         if (possible_int_mode_for_fp(src_mode)) {
3770                 ia32_address_mode_t am;
3771
3772                 match_arguments(&am, src_block, NULL, op, NULL, match_am | match_try_am | match_16bit_am);
3773                 if (am.op_type == ia32_AddrModeS) {
3774                         ia32_address_t *addr = &am.addr;
3775
3776                         fild     = new_bd_ia32_vfild(dbgi, block, addr->base, addr->index, addr->mem);
3777                         new_node = new_r_Proj(fild, mode_vfp, pn_ia32_vfild_res);
3778
3779                         set_am_attributes(fild, &am);
3780                         SET_IA32_ORIG_NODE(fild, node);
3781
3782                         fix_mem_proj(fild, &am);
3783
3784                         return new_node;
3785                 }
3786         }
3787         if (new_op == NULL) {
3788                 new_op = be_transform_node(op);
3789         }
3790
3791         mode = get_irn_mode(op);
3792
3793         /* first convert to 32 bit signed if necessary */
3794         if (get_mode_size_bits(src_mode) < 32) {
3795                 if (!upper_bits_clean(new_op, src_mode)) {
3796                         new_op = create_Conv_I2I(dbgi, block, noreg_GP, noreg_GP, nomem, new_op, src_mode);
3797                         SET_IA32_ORIG_NODE(new_op, node);
3798                 }
3799                 mode = mode_Is;
3800         }
3801
3802         assert(get_mode_size_bits(mode) == 32);
3803
3804         /* do a store */
3805         store = new_bd_ia32_Store(dbgi, block, get_irg_frame(irg), noreg_GP, nomem, new_op);
3806
3807         set_ia32_use_frame(store);
3808         set_ia32_op_type(store, ia32_AddrModeD);
3809         set_ia32_ls_mode(store, mode_Iu);
3810
3811         store_mem = new_r_Proj(store, mode_M, pn_ia32_Store_M);
3812
3813         /* exception for 32bit unsigned, do a 64bit spill+load */
3814         if (!mode_is_signed(mode)) {
3815                 ir_node *in[2];
3816                 /* store a zero */
3817                 ir_node *zero_const = ia32_create_Immediate(NULL, 0, 0);
3818
3819                 ir_node *zero_store = new_bd_ia32_Store(dbgi, block, get_irg_frame(irg),
3820                                                         noreg_GP, nomem, zero_const);
3821                 ir_node *zero_store_mem = new_r_Proj(zero_store, mode_M, pn_ia32_Store_M);
3822
3823                 set_ia32_use_frame(zero_store);
3824                 set_ia32_op_type(zero_store, ia32_AddrModeD);
3825                 add_ia32_am_offs_int(zero_store, 4);
3826                 set_ia32_ls_mode(zero_store, mode_Iu);
3827
3828                 in[0] = zero_store_mem;
3829                 in[1] = store_mem;
3830
3831                 store_mem  = new_rd_Sync(dbgi, block, 2, in);
3832                 store_mode = mode_Ls;
3833         } else {
3834                 store_mode = mode_Is;
3835         }
3836
3837         /* do a fild */
3838         fild = new_bd_ia32_vfild(dbgi, block, get_irg_frame(irg), noreg_GP, store_mem);
3839
3840         set_ia32_use_frame(fild);
3841         set_ia32_op_type(fild, ia32_AddrModeS);
3842         set_ia32_ls_mode(fild, store_mode);
3843
3844         new_node = new_r_Proj(fild, mode_vfp, pn_ia32_vfild_res);
3845
3846         return new_node;
3847 }
3848
3849 /**
3850  * Create a conversion from one integer mode into another one
3851  */
3852 static ir_node *create_I2I_Conv(ir_mode *src_mode, ir_mode *tgt_mode,
3853                                 dbg_info *dbgi, ir_node *block, ir_node *op,
3854                                 ir_node *node)
3855 {
3856         ir_node             *new_block = be_transform_node(block);
3857         ir_node             *new_node;
3858         ir_mode             *smaller_mode;
3859         ia32_address_mode_t  am;
3860         ia32_address_t      *addr = &am.addr;
3861
3862         (void) node;
3863         if (get_mode_size_bits(src_mode) < get_mode_size_bits(tgt_mode)) {
3864                 smaller_mode = src_mode;
3865         } else {
3866                 smaller_mode = tgt_mode;
3867         }
3868
3869 #ifdef DEBUG_libfirm
3870         if (is_Const(op)) {
3871                 ir_fprintf(stderr, "Optimisation warning: conv after constant %+F\n",
3872                            op);
3873         }
3874 #endif
3875
3876         match_arguments(&am, block, NULL, op, NULL,
3877                         match_am | match_8bit_am | match_16bit_am);
3878
3879         if (upper_bits_clean(am.new_op2, smaller_mode)) {
3880                 /* unnecessary conv. in theory it shouldn't have been AM */
3881                 assert(is_ia32_NoReg_GP(addr->base));
3882                 assert(is_ia32_NoReg_GP(addr->index));
3883                 assert(is_NoMem(addr->mem));
3884                 assert(am.addr.offset == 0);
3885                 assert(am.addr.symconst_ent == NULL);
3886                 return am.new_op2;
3887         }
3888
3889         new_node = create_Conv_I2I(dbgi, new_block, addr->base, addr->index,
3890                         addr->mem, am.new_op2, smaller_mode);
3891         set_am_attributes(new_node, &am);
3892         /* match_arguments assume that out-mode = in-mode, this isn't true here
3893          * so fix it */
3894         set_ia32_ls_mode(new_node, smaller_mode);
3895         SET_IA32_ORIG_NODE(new_node, node);
3896         new_node = fix_mem_proj(new_node, &am);
3897         return new_node;
3898 }
3899
3900 /**
3901  * Transforms a Conv node.
3902  *
3903  * @return The created ia32 Conv node
3904  */
3905 static ir_node *gen_Conv(ir_node *node)
3906 {
3907         ir_node  *block     = get_nodes_block(node);
3908         ir_node  *new_block = be_transform_node(block);
3909         ir_node  *op        = get_Conv_op(node);
3910         ir_node  *new_op    = NULL;
3911         dbg_info *dbgi      = get_irn_dbg_info(node);
3912         ir_mode  *src_mode  = get_irn_mode(op);
3913         ir_mode  *tgt_mode  = get_irn_mode(node);
3914         int       src_bits  = get_mode_size_bits(src_mode);
3915         int       tgt_bits  = get_mode_size_bits(tgt_mode);
3916         ir_node  *res       = NULL;
3917
3918         assert(!mode_is_int(src_mode) || src_bits <= 32);
3919         assert(!mode_is_int(tgt_mode) || tgt_bits <= 32);
3920
3921         /* modeB -> X should already be lowered by the lower_mode_b pass */
3922         if (src_mode == mode_b) {
3923                 panic("ConvB not lowered %+F", node);
3924         }
3925
3926         if (src_mode == tgt_mode) {
3927                 if (get_Conv_strict(node)) {
3928                         if (ia32_cg_config.use_sse2) {
3929                                 /* when we are in SSE mode, we can kill all strict no-op conversion */
3930                                 return be_transform_node(op);
3931                         }
3932                 } else {
3933                         /* this should be optimized already, but who knows... */
3934                         DEBUG_ONLY(ir_fprintf(stderr, "Debug warning: conv %+F is pointless\n", node));
3935                         DB((dbg, LEVEL_1, "killed Conv(mode, mode) ..."));
3936                         return be_transform_node(op);
3937                 }
3938         }
3939
3940         if (mode_is_float(src_mode)) {
3941                 new_op = be_transform_node(op);
3942                 /* we convert from float ... */
3943                 if (mode_is_float(tgt_mode)) {
3944                         /* ... to float */
3945                         if (ia32_cg_config.use_sse2) {
3946                                 DB((dbg, LEVEL_1, "create Conv(float, float) ..."));
3947                                 res = new_bd_ia32_Conv_FP2FP(dbgi, new_block, noreg_GP, noreg_GP,
3948                                                              nomem, new_op);
3949                                 set_ia32_ls_mode(res, tgt_mode);
3950                         } else {
3951                                 if (get_Conv_strict(node)) {
3952                                         /* if fp_no_float_fold is not set then we assume that we
3953                                          * don't have any float operations in a non
3954                                          * mode_float_arithmetic mode and can skip strict upconvs */
3955                                         if (src_bits < tgt_bits) {
3956                                                 DB((dbg, LEVEL_1, "killed Conv(float, float) ..."));
3957                                                 return new_op;
3958                                         } else {
3959                                                 res = gen_x87_strict_conv(tgt_mode, new_op);
3960                                                 SET_IA32_ORIG_NODE(get_Proj_pred(res), node);
3961                                                 return res;
3962                                         }
3963                                 }
3964                                 DB((dbg, LEVEL_1, "killed Conv(float, float) ..."));
3965                                 return new_op;
3966                         }
3967                 } else {
3968                         /* ... to int */
3969                         DB((dbg, LEVEL_1, "create Conv(float, int) ..."));
3970                         if (ia32_cg_config.use_sse2) {
3971                                 res = new_bd_ia32_Conv_FP2I(dbgi, new_block, noreg_GP, noreg_GP,
3972                                                             nomem, new_op);
3973                                 set_ia32_ls_mode(res, src_mode);
3974                         } else {
3975                                 return gen_x87_fp_to_gp(node);
3976                         }
3977                 }
3978         } else {
3979                 /* we convert from int ... */
3980                 if (mode_is_float(tgt_mode)) {
3981                         /* ... to float */
3982                         DB((dbg, LEVEL_1, "create Conv(int, float) ..."));
3983                         if (ia32_cg_config.use_sse2) {
3984                                 new_op = be_transform_node(op);
3985                                 res = new_bd_ia32_Conv_I2FP(dbgi, new_block, noreg_GP, noreg_GP,
3986                                                             nomem, new_op);
3987                                 set_ia32_ls_mode(res, tgt_mode);
3988                         } else {
3989                                 unsigned int_mantissa   = get_mode_size_bits(src_mode) - (mode_is_signed(src_mode) ? 1 : 0);
3990                                 unsigned float_mantissa = tarval_ieee754_get_mantissa_size(tgt_mode);
3991                                 res = gen_x87_gp_to_fp(node, src_mode);
3992
3993                                 /* we need a strict-Conv, if the int mode has more bits than the
3994                                  * float mantissa */
3995                                 if (float_mantissa < int_mantissa) {
3996                                         res = gen_x87_strict_conv(tgt_mode, res);
3997                                         SET_IA32_ORIG_NODE(get_Proj_pred(res), node);
3998                                 }
3999                                 return res;
4000                         }
4001                 } else if (tgt_mode == mode_b) {
4002                         /* mode_b lowering already took care that we only have 0/1 values */
4003                         DB((dbg, LEVEL_1, "omitting unnecessary Conv(%+F, %+F) ...",
4004                             src_mode, tgt_mode));
4005                         return be_transform_node(op);
4006                 } else {
4007                         /* to int */
4008                         if (src_bits == tgt_bits) {
4009                                 DB((dbg, LEVEL_1, "omitting unnecessary Conv(%+F, %+F) ...",
4010                                     src_mode, tgt_mode));
4011                                 return be_transform_node(op);
4012                         }
4013
4014                         res = create_I2I_Conv(src_mode, tgt_mode, dbgi, block, op, node);
4015                         return res;
4016                 }
4017         }
4018
4019         return res;
4020 }
4021
4022 static ir_node *create_immediate_or_transform(ir_node *node,
4023                                               char immediate_constraint_type)
4024 {
4025         ir_node *new_node = ia32_try_create_Immediate(node, immediate_constraint_type);
4026         if (new_node == NULL) {
4027                 new_node = be_transform_node(node);
4028         }
4029         return new_node;
4030 }
4031
4032 /**
4033  * Transforms a FrameAddr into an ia32 Add.
4034  */
4035 static ir_node *gen_be_FrameAddr(ir_node *node)
4036 {
4037         ir_node  *block  = be_transform_node(get_nodes_block(node));
4038         ir_node  *op     = be_get_FrameAddr_frame(node);
4039         ir_node  *new_op = be_transform_node(op);
4040         dbg_info *dbgi   = get_irn_dbg_info(node);
4041         ir_node  *new_node;
4042
4043         new_node = new_bd_ia32_Lea(dbgi, block, new_op, noreg_GP);
4044         set_ia32_frame_ent(new_node, arch_get_frame_entity(node));
4045         set_ia32_use_frame(new_node);
4046
4047         SET_IA32_ORIG_NODE(new_node, node);
4048
4049         return new_node;
4050 }
4051
4052 /**
4053  * In case SSE is used we need to copy the result from XMM0 to FPU TOS before return.
4054  */
4055 static ir_node *gen_be_Return(ir_node *node)
4056 {
4057         ir_graph  *irg         = current_ir_graph;
4058         ir_node   *ret_val     = get_irn_n(node, n_be_Return_val);
4059         ir_node   *ret_mem     = get_irn_n(node, n_be_Return_mem);
4060         ir_node   *new_ret_val = be_transform_node(ret_val);
4061         ir_node   *new_ret_mem = be_transform_node(ret_mem);
4062         ir_entity *ent         = get_irg_entity(irg);
4063         ir_type   *tp          = get_entity_type(ent);
4064         dbg_info  *dbgi        = get_irn_dbg_info(node);
4065         ir_node   *block       = be_transform_node(get_nodes_block(node));
4066         ir_type   *res_type;
4067         ir_mode   *mode;
4068         ir_node   *frame;
4069         ir_node   *sse_store;
4070         ir_node   *store_mem;
4071         ir_node   *fld;
4072         ir_node   *mproj;
4073         int        i;
4074         int        arity;
4075         unsigned   pop;
4076         ir_node  **in;
4077         ir_node   *new_node;
4078
4079         assert(ret_val != NULL);
4080         if (be_Return_get_n_rets(node) < 1 || ! ia32_cg_config.use_sse2) {
4081                 return be_duplicate_node(node);
4082         }
4083
4084         res_type = get_method_res_type(tp, 0);
4085
4086         if (! is_Primitive_type(res_type)) {
4087                 return be_duplicate_node(node);
4088         }
4089
4090         mode = get_type_mode(res_type);
4091         if (! mode_is_float(mode)) {
4092                 return be_duplicate_node(node);
4093         }
4094
4095         assert(get_method_n_ress(tp) == 1);
4096
4097         frame = get_irg_frame(irg);
4098
4099         /* store xmm0 onto stack */
4100         sse_store = new_bd_ia32_xStoreSimple(dbgi, block, frame, noreg_GP,
4101                                              new_ret_mem, new_ret_val);
4102         set_ia32_ls_mode(sse_store, mode);
4103         set_ia32_op_type(sse_store, ia32_AddrModeD);
4104         set_ia32_use_frame(sse_store);
4105         store_mem = new_r_Proj(sse_store, mode_M, pn_ia32_xStoreSimple_M);
4106
4107         /* load into x87 register */
4108         fld = new_bd_ia32_vfld(dbgi, block, frame, noreg_GP, store_mem, mode);
4109         set_ia32_op_type(fld, ia32_AddrModeS);
4110         set_ia32_use_frame(fld);
4111
4112         mproj = new_r_Proj(fld, mode_M, pn_ia32_vfld_M);
4113         fld   = new_r_Proj(fld, mode_vfp, pn_ia32_vfld_res);
4114
4115         /* create a new return */
4116         arity = get_irn_arity(node);
4117         in    = ALLOCAN(ir_node*, arity);
4118         pop   = be_Return_get_pop(node);
4119         for (i = 0; i < arity; ++i) {
4120                 ir_node *op = get_irn_n(node, i);
4121                 if (op == ret_val) {
4122                         in[i] = fld;
4123                 } else if (op == ret_mem) {
4124                         in[i] = mproj;
4125                 } else {
4126                         in[i] = be_transform_node(op);
4127                 }
4128         }
4129         new_node = be_new_Return(dbgi, irg, block, arity, pop, arity, in);
4130         copy_node_attr(irg, node, new_node);
4131
4132         return new_node;
4133 }
4134
4135 /**
4136  * Transform a be_AddSP into an ia32_SubSP.
4137  */
4138 static ir_node *gen_be_AddSP(ir_node *node)
4139 {
4140         ir_node *sz = get_irn_n(node, n_be_AddSP_size);
4141         ir_node *sp = get_irn_n(node, n_be_AddSP_old_sp);
4142
4143         ir_node *new_node = gen_binop(node, sp, sz, new_bd_ia32_SubSP,
4144                                       match_am | match_immediate);
4145         assert(is_ia32_SubSP(new_node));
4146         arch_set_irn_register_out(new_node, pn_ia32_SubSP_stack,
4147                                   &ia32_registers[REG_ESP]);
4148         return new_node;
4149 }
4150
4151 /**
4152  * Transform a be_SubSP into an ia32_AddSP
4153  */
4154 static ir_node *gen_be_SubSP(ir_node *node)
4155 {
4156         ir_node *sz = get_irn_n(node, n_be_SubSP_size);
4157         ir_node *sp = get_irn_n(node, n_be_SubSP_old_sp);
4158
4159         ir_node *new_node = gen_binop(node, sp, sz, new_bd_ia32_AddSP,
4160                                       match_am | match_immediate);
4161         assert(is_ia32_AddSP(new_node));
4162         arch_set_irn_register_out(new_node, pn_ia32_AddSP_stack,
4163                                   &ia32_registers[REG_ESP]);
4164         return new_node;
4165 }
4166
4167 /**
4168  * Change some phi modes
4169  */
4170 static ir_node *gen_Phi(ir_node *node)
4171 {
4172         const arch_register_req_t *req;
4173         ir_node  *block = be_transform_node(get_nodes_block(node));
4174         ir_graph *irg   = current_ir_graph;
4175         dbg_info *dbgi  = get_irn_dbg_info(node);
4176         ir_mode  *mode  = get_irn_mode(node);
4177         ir_node  *phi;
4178
4179         if (ia32_mode_needs_gp_reg(mode)) {
4180                 /* we shouldn't have any 64bit stuff around anymore */
4181                 assert(get_mode_size_bits(mode) <= 32);
4182                 /* all integer operations are on 32bit registers now */
4183                 mode = mode_Iu;
4184                 req  = ia32_reg_classes[CLASS_ia32_gp].class_req;
4185         } else if (mode_is_float(mode)) {
4186                 if (ia32_cg_config.use_sse2) {
4187                         mode = mode_xmm;
4188                         req  = ia32_reg_classes[CLASS_ia32_xmm].class_req;
4189                 } else {
4190                         mode = mode_vfp;
4191                         req  = ia32_reg_classes[CLASS_ia32_vfp].class_req;
4192                 }
4193         } else {
4194                 req = arch_no_register_req;
4195         }
4196
4197         /* phi nodes allow loops, so we use the old arguments for now
4198          * and fix this later */
4199         phi = new_ir_node(dbgi, irg, block, op_Phi, mode, get_irn_arity(node),
4200                           get_irn_in(node) + 1);
4201         copy_node_attr(irg, node, phi);
4202         be_duplicate_deps(node, phi);
4203
4204         arch_set_irn_register_req_out(phi, 0, req);
4205
4206         be_enqueue_preds(node);
4207
4208         return phi;
4209 }
4210
4211 static ir_node *gen_Jmp(ir_node *node)
4212 {
4213         ir_node  *block     = get_nodes_block(node);
4214         ir_node  *new_block = be_transform_node(block);
4215         dbg_info *dbgi      = get_irn_dbg_info(node);
4216         ir_node  *new_node;
4217
4218         new_node = new_bd_ia32_Jmp(dbgi, new_block);
4219         SET_IA32_ORIG_NODE(new_node, node);
4220
4221         return new_node;
4222 }
4223
4224 /**
4225  * Transform IJmp
4226  */
4227 static ir_node *gen_IJmp(ir_node *node)
4228 {
4229         ir_node  *block     = get_nodes_block(node);
4230         ir_node  *new_block = be_transform_node(block);
4231         dbg_info *dbgi      = get_irn_dbg_info(node);
4232         ir_node  *op        = get_IJmp_target(node);
4233         ir_node  *new_node;
4234         ia32_address_mode_t  am;
4235         ia32_address_t      *addr = &am.addr;
4236
4237         assert(get_irn_mode(op) == mode_P);
4238
4239         match_arguments(&am, block, NULL, op, NULL, match_am | match_immediate);
4240
4241         new_node = new_bd_ia32_IJmp(dbgi, new_block, addr->base, addr->index,
4242                         addr->mem, am.new_op2);
4243         set_am_attributes(new_node, &am);
4244         SET_IA32_ORIG_NODE(new_node, node);
4245
4246         new_node = fix_mem_proj(new_node, &am);
4247
4248         return new_node;
4249 }
4250
4251 static ir_node *gen_ia32_l_Add(ir_node *node)
4252 {
4253         ir_node *left    = get_irn_n(node, n_ia32_l_Add_left);
4254         ir_node *right   = get_irn_n(node, n_ia32_l_Add_right);
4255         ir_node *lowered = gen_binop(node, left, right, new_bd_ia32_Add,
4256                         match_commutative | match_am | match_immediate |
4257                         match_mode_neutral);
4258
4259         if (is_Proj(lowered)) {
4260                 lowered = get_Proj_pred(lowered);
4261         } else {
4262                 assert(is_ia32_Add(lowered));
4263                 set_irn_mode(lowered, mode_T);
4264         }
4265
4266         return lowered;
4267 }
4268
4269 static ir_node *gen_ia32_l_Adc(ir_node *node)
4270 {
4271         return gen_binop_flags(node, new_bd_ia32_Adc,
4272                         match_commutative | match_am | match_immediate |
4273                         match_mode_neutral);
4274 }
4275
4276 /**
4277  * Transforms a l_MulS into a "real" MulS node.
4278  *
4279  * @return the created ia32 Mul node
4280  */
4281 static ir_node *gen_ia32_l_Mul(ir_node *node)
4282 {
4283         ir_node *left  = get_binop_left(node);
4284         ir_node *right = get_binop_right(node);
4285
4286         return gen_binop(node, left, right, new_bd_ia32_Mul,
4287                          match_commutative | match_am | match_mode_neutral);
4288 }
4289
4290 /**
4291  * Transforms a l_IMulS into a "real" IMul1OPS node.
4292  *
4293  * @return the created ia32 IMul1OP node
4294  */
4295 static ir_node *gen_ia32_l_IMul(ir_node *node)
4296 {
4297         ir_node  *left  = get_binop_left(node);
4298         ir_node  *right = get_binop_right(node);
4299
4300         return gen_binop(node, left, right, new_bd_ia32_IMul1OP,
4301                          match_commutative | match_am | match_mode_neutral);
4302 }
4303
4304 static ir_node *gen_ia32_l_Sub(ir_node *node)
4305 {
4306         ir_node *left    = get_irn_n(node, n_ia32_l_Sub_minuend);
4307         ir_node *right   = get_irn_n(node, n_ia32_l_Sub_subtrahend);
4308         ir_node *lowered = gen_binop(node, left, right, new_bd_ia32_Sub,
4309                         match_am | match_immediate | match_mode_neutral);
4310
4311         if (is_Proj(lowered)) {
4312                 lowered = get_Proj_pred(lowered);
4313         } else {
4314                 assert(is_ia32_Sub(lowered));
4315                 set_irn_mode(lowered, mode_T);
4316         }
4317
4318         return lowered;
4319 }
4320
4321 static ir_node *gen_ia32_l_Sbb(ir_node *node)
4322 {
4323         return gen_binop_flags(node, new_bd_ia32_Sbb,
4324                         match_am | match_immediate | match_mode_neutral);
4325 }
4326
4327 static ir_node *gen_ia32_l_LLtoFloat(ir_node *node)
4328 {
4329         ir_node  *src_block    = get_nodes_block(node);
4330         ir_node  *block        = be_transform_node(src_block);
4331         ir_graph *irg          = current_ir_graph;
4332         dbg_info *dbgi         = get_irn_dbg_info(node);
4333         ir_node  *frame        = get_irg_frame(irg);
4334         ir_node  *val_low      = get_irn_n(node, n_ia32_l_LLtoFloat_val_low);
4335         ir_node  *val_high     = get_irn_n(node, n_ia32_l_LLtoFloat_val_high);
4336         ir_node  *new_val_low  = be_transform_node(val_low);
4337         ir_node  *new_val_high = be_transform_node(val_high);
4338         ir_node  *in[2];
4339         ir_node  *sync, *fild, *res;
4340         ir_node  *store_low;
4341         ir_node  *store_high;
4342         ir_node  *mem_low;
4343         ir_node  *mem_high;
4344
4345         if (ia32_cg_config.use_sse2) {
4346                 panic("ia32_l_LLtoFloat not implemented for SSE2");
4347         }
4348
4349         /* do a store */
4350         store_low = new_bd_ia32_Store(dbgi, block, frame, noreg_GP, nomem,
4351                                       new_val_low);
4352         store_high = new_bd_ia32_Store(dbgi, block, frame, noreg_GP, nomem,
4353                                        new_val_high);
4354         SET_IA32_ORIG_NODE(store_low,  node);
4355         SET_IA32_ORIG_NODE(store_high, node);
4356
4357         mem_low  = new_r_Proj(store_low, mode_M, pn_ia32_Store_M);
4358         mem_high = new_r_Proj(store_high, mode_M, pn_ia32_Store_M);
4359
4360         set_ia32_use_frame(store_low);
4361         set_ia32_use_frame(store_high);
4362         set_ia32_op_type(store_low, ia32_AddrModeD);
4363         set_ia32_op_type(store_high, ia32_AddrModeD);
4364         set_ia32_ls_mode(store_low, mode_Iu);
4365         set_ia32_ls_mode(store_high, mode_Is);
4366         add_ia32_am_offs_int(store_high, 4);
4367
4368         in[0] = mem_low;
4369         in[1] = mem_high;
4370         sync  = new_rd_Sync(dbgi, block, 2, in);
4371
4372         /* do a fild */
4373         fild = new_bd_ia32_vfild(dbgi, block, frame, noreg_GP, sync);
4374
4375         set_ia32_use_frame(fild);
4376         set_ia32_op_type(fild, ia32_AddrModeS);
4377         set_ia32_ls_mode(fild, mode_Ls);
4378
4379         SET_IA32_ORIG_NODE(fild, node);
4380
4381         res = new_r_Proj(fild, mode_vfp, pn_ia32_vfild_res);
4382
4383         if (! mode_is_signed(get_irn_mode(val_high))) {
4384                 ia32_address_mode_t  am;
4385
4386                 ir_node *count = ia32_create_Immediate(NULL, 0, 31);
4387                 ir_node *fadd;
4388
4389                 am.addr.base          = get_symconst_base();
4390                 am.addr.index         = new_bd_ia32_Shr(dbgi, block, new_val_high, count);
4391                 am.addr.mem           = nomem;
4392                 am.addr.offset        = 0;
4393                 am.addr.scale         = 2;
4394                 am.addr.symconst_ent  = ia32_gen_fp_known_const(ia32_ULLBIAS);
4395                 am.addr.tls_segment   = false;
4396                 am.addr.use_frame     = 0;
4397                 am.addr.frame_entity  = NULL;
4398                 am.addr.symconst_sign = 0;
4399                 am.ls_mode            = mode_F;
4400                 am.mem_proj           = nomem;
4401                 am.op_type            = ia32_AddrModeS;
4402                 am.new_op1            = res;
4403                 am.new_op2            = ia32_new_NoReg_vfp(current_ir_graph);
4404                 am.pinned             = op_pin_state_floats;
4405                 am.commutative        = 1;
4406                 am.ins_permuted       = false;
4407
4408                 fadd  = new_bd_ia32_vfadd(dbgi, block, am.addr.base, am.addr.index, am.addr.mem,
4409                         am.new_op1, am.new_op2, get_fpcw());
4410                 set_am_attributes(fadd, &am);
4411
4412                 set_irn_mode(fadd, mode_T);
4413                 res = new_rd_Proj(NULL, fadd, mode_vfp, pn_ia32_res);
4414         }
4415         return res;
4416 }
4417
4418 static ir_node *gen_ia32_l_FloattoLL(ir_node *node)
4419 {
4420         ir_node  *src_block  = get_nodes_block(node);
4421         ir_node  *block      = be_transform_node(src_block);
4422         ir_graph *irg        = get_Block_irg(block);
4423         dbg_info *dbgi       = get_irn_dbg_info(node);
4424         ir_node  *frame      = get_irg_frame(irg);
4425         ir_node  *val        = get_irn_n(node, n_ia32_l_FloattoLL_val);
4426         ir_node  *new_val    = be_transform_node(val);
4427         ir_node  *fist;
4428
4429         fist = gen_vfist(dbgi, block, frame, noreg_GP, nomem, new_val);
4430         SET_IA32_ORIG_NODE(fist, node);
4431         set_ia32_use_frame(fist);
4432         set_ia32_op_type(fist, ia32_AddrModeD);
4433         set_ia32_ls_mode(fist, mode_Ls);
4434
4435         assert((long)pn_ia32_vfist_M == (long) pn_ia32_vfisttp_M);
4436         return new_r_Proj(fist, mode_M, pn_ia32_vfist_M);
4437 }
4438
4439 static ir_node *gen_Proj_l_FloattoLL(ir_node *node)
4440 {
4441         ir_node  *block    = be_transform_node(get_nodes_block(node));
4442         ir_graph *irg      = get_Block_irg(block);
4443         ir_node  *pred     = get_Proj_pred(node);
4444         ir_node  *new_pred = be_transform_node(pred);
4445         ir_node  *frame    = get_irg_frame(irg);
4446         dbg_info *dbgi     = get_irn_dbg_info(node);
4447         long      pn       = get_Proj_proj(node);
4448         ir_node  *load;
4449         ir_node  *proj;
4450         ia32_attr_t *attr;
4451
4452         load = new_bd_ia32_Load(dbgi, block, frame, noreg_GP, new_pred);
4453         SET_IA32_ORIG_NODE(load, node);
4454         set_ia32_use_frame(load);
4455         set_ia32_op_type(load, ia32_AddrModeS);
4456         set_ia32_ls_mode(load, mode_Iu);
4457         /* we need a 64bit stackslot (fist stores 64bit) even though we only load
4458          * 32 bit from it with this particular load */
4459         attr = get_ia32_attr(load);
4460         attr->data.need_64bit_stackent = 1;
4461
4462         if (pn == pn_ia32_l_FloattoLL_res_high) {
4463                 add_ia32_am_offs_int(load, 4);
4464         } else {
4465                 assert(pn == pn_ia32_l_FloattoLL_res_low);
4466         }
4467
4468         proj = new_r_Proj(load, mode_Iu, pn_ia32_Load_res);
4469
4470         return proj;
4471 }
4472
4473 /**
4474  * Transform the Projs of an AddSP.
4475  */
4476 static ir_node *gen_Proj_be_AddSP(ir_node *node)
4477 {
4478         ir_node  *pred     = get_Proj_pred(node);
4479         ir_node  *new_pred = be_transform_node(pred);
4480         dbg_info *dbgi     = get_irn_dbg_info(node);
4481         long     proj      = get_Proj_proj(node);
4482
4483         if (proj == pn_be_AddSP_sp) {
4484                 ir_node *res = new_rd_Proj(dbgi, new_pred, mode_Iu,
4485                                            pn_ia32_SubSP_stack);
4486                 arch_set_irn_register(res, &ia32_registers[REG_ESP]);
4487                 return res;
4488         } else if (proj == pn_be_AddSP_res) {
4489                 return new_rd_Proj(dbgi, new_pred, mode_Iu,
4490                                    pn_ia32_SubSP_addr);
4491         } else if (proj == pn_be_AddSP_M) {
4492                 return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_SubSP_M);
4493         }
4494
4495         panic("No idea how to transform proj->AddSP");
4496 }
4497
4498 /**
4499  * Transform the Projs of a SubSP.
4500  */
4501 static ir_node *gen_Proj_be_SubSP(ir_node *node)
4502 {
4503         ir_node  *pred     = get_Proj_pred(node);
4504         ir_node  *new_pred = be_transform_node(pred);
4505         dbg_info *dbgi     = get_irn_dbg_info(node);
4506         long     proj      = get_Proj_proj(node);
4507
4508         if (proj == pn_be_SubSP_sp) {
4509                 ir_node *res = new_rd_Proj(dbgi, new_pred, mode_Iu,
4510                                            pn_ia32_AddSP_stack);
4511                 arch_set_irn_register(res, &ia32_registers[REG_ESP]);
4512                 return res;
4513         } else if (proj == pn_be_SubSP_M) {
4514                 return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_AddSP_M);
4515         }
4516
4517         panic("No idea how to transform proj->SubSP");
4518 }
4519
4520 /**
4521  * Transform and renumber the Projs from a Load.
4522  */
4523 static ir_node *gen_Proj_Load(ir_node *node)
4524 {
4525         ir_node  *new_pred;
4526         ir_node  *pred = get_Proj_pred(node);
4527         dbg_info *dbgi = get_irn_dbg_info(node);
4528         long      proj = get_Proj_proj(node);
4529
4530         /* loads might be part of source address mode matches, so we don't
4531          * transform the ProjMs yet (with the exception of loads whose result is
4532          * not used)
4533          */
4534         if (is_Load(pred) && proj == pn_Load_M && get_irn_n_edges(pred) > 1) {
4535                 ir_node *res;
4536
4537                 /* this is needed, because sometimes we have loops that are only
4538                    reachable through the ProjM */
4539                 be_enqueue_preds(node);
4540                 /* do it in 2 steps, to silence firm verifier */
4541                 res = new_rd_Proj(dbgi, pred, mode_M, pn_Load_M);
4542                 set_Proj_proj(res, pn_ia32_mem);
4543                 return res;
4544         }
4545
4546         /* renumber the proj */
4547         new_pred = be_transform_node(pred);
4548         if (is_ia32_Load(new_pred)) {
4549                 switch ((pn_Load)proj) {
4550                 case pn_Load_res:
4551                         return new_rd_Proj(dbgi, new_pred, mode_Iu, pn_ia32_Load_res);
4552                 case pn_Load_M:
4553                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_Load_M);
4554                 case pn_Load_X_except:
4555                         /* This Load might raise an exception. Mark it. */
4556                         set_ia32_exc_label(new_pred, 1);
4557                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Load_X_except);
4558                 case pn_Load_X_regular:
4559                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Load_X_regular);
4560                 }
4561         } else if (is_ia32_Conv_I2I(new_pred) ||
4562                    is_ia32_Conv_I2I8Bit(new_pred)) {
4563                 set_irn_mode(new_pred, mode_T);
4564                 switch ((pn_Load)proj) {
4565                 case pn_Load_res:
4566                         return new_rd_Proj(dbgi, new_pred, mode_Iu, pn_ia32_res);
4567                 case pn_Load_M:
4568                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_mem);
4569                 case pn_Load_X_except:
4570                         /* This Load might raise an exception. Mark it. */
4571                         set_ia32_exc_label(new_pred, 1);
4572                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Conv_I2I_X_except);
4573                 case pn_Load_X_regular:
4574                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Conv_I2I_X_regular);
4575                 }
4576         } else if (is_ia32_xLoad(new_pred)) {
4577                 switch ((pn_Load)proj) {
4578                 case pn_Load_res:
4579                         return new_rd_Proj(dbgi, new_pred, mode_xmm, pn_ia32_xLoad_res);
4580                 case pn_Load_M:
4581                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_xLoad_M);
4582                 case pn_Load_X_except:
4583                         /* This Load might raise an exception. Mark it. */
4584                         set_ia32_exc_label(new_pred, 1);
4585                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_xLoad_X_except);
4586                 case pn_Load_X_regular:
4587                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_xLoad_X_regular);
4588                 }
4589         } else if (is_ia32_vfld(new_pred)) {
4590                 switch ((pn_Load)proj) {
4591                 case pn_Load_res:
4592                         return new_rd_Proj(dbgi, new_pred, mode_vfp, pn_ia32_vfld_res);
4593                 case pn_Load_M:
4594                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_vfld_M);
4595                 case pn_Load_X_except:
4596                         /* This Load might raise an exception. Mark it. */
4597                         set_ia32_exc_label(new_pred, 1);
4598                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_vfld_X_except);
4599                 case pn_Load_X_regular:
4600                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_vfld_X_regular);
4601                 }
4602         } else {
4603                 /* can happen for ProJMs when source address mode happened for the
4604                    node */
4605
4606                 /* however it should not be the result proj, as that would mean the
4607                    load had multiple users and should not have been used for
4608                    SourceAM */
4609                 if (proj != pn_Load_M) {
4610                         panic("internal error: transformed node not a Load");
4611                 }
4612                 return new_rd_Proj(dbgi, new_pred, mode_M, 1);
4613         }
4614
4615         panic("No idea how to transform Proj(Load) %+F", node);
4616 }
4617
4618 static ir_node *gen_Proj_Store(ir_node *node)
4619 {
4620         ir_node  *pred     = get_Proj_pred(node);
4621         ir_node  *new_pred = be_transform_node(pred);
4622         dbg_info *dbgi     = get_irn_dbg_info(node);
4623         long      pn       = get_Proj_proj(node);
4624
4625         if (is_ia32_Store(new_pred) || is_ia32_Store8Bit(new_pred)) {
4626                 switch ((pn_Store)pn) {
4627                 case pn_Store_M:
4628                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_Store_M);
4629                 case pn_Store_X_except:
4630                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Store_X_except);
4631                 case pn_Store_X_regular:
4632                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Store_X_regular);
4633                 }
4634         } else if (is_ia32_vfist(new_pred)) {
4635                 switch ((pn_Store)pn) {
4636                 case pn_Store_M:
4637                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_vfist_M);
4638                 case pn_Store_X_except:
4639                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_vfist_X_except);
4640                 case pn_Store_X_regular:
4641                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_vfist_X_regular);
4642                 }
4643         } else if (is_ia32_vfisttp(new_pred)) {
4644                 switch ((pn_Store)pn) {
4645                 case pn_Store_M:
4646                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_vfisttp_M);
4647                 case pn_Store_X_except:
4648                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_vfisttp_X_except);
4649                 case pn_Store_X_regular:
4650                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_vfisttp_X_regular);
4651                 }
4652         } else if (is_ia32_vfst(new_pred)) {
4653                 switch ((pn_Store)pn) {
4654                 case pn_Store_M:
4655                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_vfst_M);
4656                 case pn_Store_X_except:
4657                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_vfst_X_except);
4658                 case pn_Store_X_regular:
4659                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_vfst_X_regular);
4660                 }
4661         } else if (is_ia32_xStore(new_pred)) {
4662                 switch ((pn_Store)pn) {
4663                 case pn_Store_M:
4664                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_xStore_M);
4665                 case pn_Store_X_except:
4666                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_xStore_X_except);
4667                 case pn_Store_X_regular:
4668                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_xStore_X_regular);
4669                 }
4670         } else if (is_Sync(new_pred)) {
4671                 /* hack for the case that gen_float_const_Store produced a Sync */
4672                 if (pn == pn_Store_M) {
4673                         return new_pred;
4674                 }
4675                 panic("exception control flow for gen_float_const_Store not implemented yet");
4676         } else if (get_ia32_op_type(new_pred) == ia32_AddrModeD) {
4677                 /* destination address mode */
4678                 if (pn == pn_Store_M) {
4679                         return new_pred;
4680                 }
4681                 panic("exception control flow for destination AM not implemented yet");
4682         }
4683
4684         panic("No idea how to transform Proj(Store) %+F", node);
4685 }
4686
4687 /**
4688  * Transform and renumber the Projs from a Div or Mod instruction.
4689  */
4690 static ir_node *gen_Proj_Div(ir_node *node)
4691 {
4692         ir_node  *pred     = get_Proj_pred(node);
4693         ir_node  *new_pred = be_transform_node(pred);
4694         dbg_info *dbgi     = get_irn_dbg_info(node);
4695         long      proj     = get_Proj_proj(node);
4696
4697         assert((long)pn_ia32_Div_M == (long)pn_ia32_IDiv_M);
4698         assert((long)pn_ia32_Div_div_res == (long)pn_ia32_IDiv_div_res);
4699
4700         switch ((pn_Div)proj) {
4701         case pn_Div_M:
4702                 if (is_ia32_Div(new_pred) || is_ia32_IDiv(new_pred)) {
4703                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_Div_M);
4704                 } else if (is_ia32_xDiv(new_pred)) {
4705                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_xDiv_M);
4706                 } else if (is_ia32_vfdiv(new_pred)) {
4707                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_vfdiv_M);
4708                 } else {
4709                         panic("Div transformed to unexpected thing %+F", new_pred);
4710                 }
4711         case pn_Div_res:
4712                 if (is_ia32_Div(new_pred) || is_ia32_IDiv(new_pred)) {
4713                         return new_rd_Proj(dbgi, new_pred, mode_Iu, pn_ia32_Div_div_res);
4714                 } else if (is_ia32_xDiv(new_pred)) {
4715                         return new_rd_Proj(dbgi, new_pred, mode_xmm, pn_ia32_xDiv_res);
4716                 } else if (is_ia32_vfdiv(new_pred)) {
4717                         return new_rd_Proj(dbgi, new_pred, mode_vfp, pn_ia32_vfdiv_res);
4718                 } else {
4719                         panic("Div transformed to unexpected thing %+F", new_pred);
4720                 }
4721         case pn_Div_X_except:
4722                 set_ia32_exc_label(new_pred, 1);
4723                 return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Div_X_except);
4724         case pn_Div_X_regular:
4725                 return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Div_X_regular);
4726         }
4727
4728         panic("No idea how to transform proj->Div");
4729 }
4730
4731 /**
4732  * Transform and renumber the Projs from a Div or Mod instruction.
4733  */
4734 static ir_node *gen_Proj_Mod(ir_node *node)
4735 {
4736         ir_node  *pred     = get_Proj_pred(node);
4737         ir_node  *new_pred = be_transform_node(pred);
4738         dbg_info *dbgi     = get_irn_dbg_info(node);
4739         long     proj      = get_Proj_proj(node);
4740
4741         assert(is_ia32_Div(new_pred) || is_ia32_IDiv(new_pred));
4742         assert((long)pn_ia32_Div_M == (long)pn_ia32_IDiv_M);
4743         assert((long)pn_ia32_Div_mod_res == (long)pn_ia32_IDiv_mod_res);
4744
4745         switch ((pn_Mod)proj) {
4746         case pn_Mod_M:
4747                 return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_Div_M);
4748         case pn_Mod_res:
4749                 return new_rd_Proj(dbgi, new_pred, mode_Iu, pn_ia32_Div_mod_res);
4750         case pn_Mod_X_except:
4751                 set_ia32_exc_label(new_pred, 1);
4752                 return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Div_X_except);
4753         case pn_Mod_X_regular:
4754                 return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_Div_X_regular);
4755         }
4756         panic("No idea how to transform proj->Mod");
4757 }
4758
4759 /**
4760  * Transform and renumber the Projs from a CopyB.
4761  */
4762 static ir_node *gen_Proj_CopyB(ir_node *node)
4763 {
4764         ir_node  *pred     = get_Proj_pred(node);
4765         ir_node  *new_pred = be_transform_node(pred);
4766         dbg_info *dbgi     = get_irn_dbg_info(node);
4767         long     proj      = get_Proj_proj(node);
4768
4769         switch ((pn_CopyB)proj) {
4770         case pn_CopyB_M:
4771                 if (is_ia32_CopyB_i(new_pred)) {
4772                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_CopyB_i_M);
4773                 } else if (is_ia32_CopyB(new_pred)) {
4774                         return new_rd_Proj(dbgi, new_pred, mode_M, pn_ia32_CopyB_M);
4775                 }
4776                 break;
4777         case pn_CopyB_X_regular:
4778                 if (is_ia32_CopyB_i(new_pred)) {
4779                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_CopyB_i_X_regular);
4780                 } else if (is_ia32_CopyB(new_pred)) {
4781                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_CopyB_X_regular);
4782                 }
4783                 break;
4784         case pn_CopyB_X_except:
4785                 if (is_ia32_CopyB_i(new_pred)) {
4786                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_CopyB_i_X_except);
4787                 } else if (is_ia32_CopyB(new_pred)) {
4788                         return new_rd_Proj(dbgi, new_pred, mode_X, pn_ia32_CopyB_X_except);
4789                 }
4790                 break;
4791         }
4792
4793         panic("No idea how to transform proj->CopyB");
4794 }
4795
4796 static ir_node *gen_be_Call(ir_node *node)
4797 {
4798         dbg_info       *const dbgi      = get_irn_dbg_info(node);
4799         ir_node        *const src_block = get_nodes_block(node);
4800         ir_node        *const block     = be_transform_node(src_block);
4801         ir_node        *const src_mem   = get_irn_n(node, n_be_Call_mem);
4802         ir_node        *const src_sp    = get_irn_n(node, n_be_Call_sp);
4803         ir_node        *const sp        = be_transform_node(src_sp);
4804         ir_node        *const src_ptr   = get_irn_n(node, n_be_Call_ptr);
4805         ia32_address_mode_t   am;
4806         ia32_address_t *const addr      = &am.addr;
4807         ir_node        *      mem;
4808         ir_node        *      call;
4809         int                   i;
4810         ir_node        *      fpcw;
4811         ir_node        *      eax       = noreg_GP;
4812         ir_node        *      ecx       = noreg_GP;
4813         ir_node        *      edx       = noreg_GP;
4814         unsigned        const pop       = be_Call_get_pop(node);
4815         ir_type        *const call_tp   = be_Call_get_type(node);
4816         int                   old_no_pic_adjust;
4817         int                   throws_exception = ir_throws_exception(node);
4818
4819         /* Run the x87 simulator if the call returns a float value */
4820         if (get_method_n_ress(call_tp) > 0) {
4821                 ir_type *const res_type = get_method_res_type(call_tp, 0);
4822                 ir_mode *const res_mode = get_type_mode(res_type);
4823
4824                 if (res_mode != NULL && mode_is_float(res_mode)) {
4825                         ir_graph        *irg      = current_ir_graph;
4826                         ia32_irg_data_t *irg_data = ia32_get_irg_data(irg);
4827                         irg_data->do_x87_sim = 1;
4828                 }
4829         }
4830
4831         /* We do not want be_Call direct calls */
4832         assert(be_Call_get_entity(node) == NULL);
4833
4834         /* special case for PIC trampoline calls */
4835         old_no_pic_adjust  = ia32_no_pic_adjust;
4836         ia32_no_pic_adjust = be_get_irg_options(current_ir_graph)->pic;
4837
4838         match_arguments(&am, src_block, NULL, src_ptr, src_mem,
4839                         match_am | match_immediate);
4840
4841         ia32_no_pic_adjust = old_no_pic_adjust;
4842
4843         i    = get_irn_arity(node) - 1;
4844         fpcw = be_transform_node(get_irn_n(node, i--));
4845         for (; i >= n_be_Call_first_arg; --i) {
4846                 arch_register_req_t const *const req
4847                         = arch_get_irn_register_req_in(node, i);
4848                 ir_node *const reg_parm = be_transform_node(get_irn_n(node, i));
4849
4850                 assert(req->type == arch_register_req_type_limited);
4851                 assert(req->cls == &ia32_reg_classes[CLASS_ia32_gp]);
4852
4853                 switch (*req->limited) {
4854                         case 1 << REG_GP_EAX: assert(eax == noreg_GP); eax = reg_parm; break;
4855                         case 1 << REG_GP_ECX: assert(ecx == noreg_GP); ecx = reg_parm; break;
4856                         case 1 << REG_GP_EDX: assert(edx == noreg_GP); edx = reg_parm; break;
4857                         default: panic("Invalid GP register for register parameter");
4858                 }
4859         }
4860
4861         mem  = transform_AM_mem(block, src_ptr, src_mem, addr->mem);
4862         call = new_bd_ia32_Call(dbgi, block, addr->base, addr->index, mem,
4863                                 am.new_op2, sp, fpcw, eax, ecx, edx, pop, call_tp);
4864         ir_set_throws_exception(call, throws_exception);
4865         set_am_attributes(call, &am);
4866         call = fix_mem_proj(call, &am);
4867
4868         if (get_irn_pinned(node) == op_pin_state_pinned)
4869                 set_irn_pinned(call, op_pin_state_pinned);
4870
4871         SET_IA32_ORIG_NODE(call, node);
4872
4873         if (ia32_cg_config.use_sse2) {
4874                 /* remember this call for post-processing */
4875                 ARR_APP1(ir_node *, call_list, call);
4876                 ARR_APP1(ir_type *, call_types, be_Call_get_type(node));
4877         }
4878
4879         return call;
4880 }
4881
4882 /**
4883  * Transform Builtin trap
4884  */
4885 static ir_node *gen_trap(ir_node *node)
4886 {
4887         dbg_info *dbgi  = get_irn_dbg_info(node);
4888         ir_node *block  = be_transform_node(get_nodes_block(node));
4889         ir_node *mem    = be_transform_node(get_Builtin_mem(node));
4890
4891         return new_bd_ia32_UD2(dbgi, block, mem);
4892 }
4893
4894 /**
4895  * Transform Builtin debugbreak
4896  */
4897 static ir_node *gen_debugbreak(ir_node *node)
4898 {
4899         dbg_info *dbgi  = get_irn_dbg_info(node);
4900         ir_node *block  = be_transform_node(get_nodes_block(node));
4901         ir_node *mem    = be_transform_node(get_Builtin_mem(node));
4902
4903         return new_bd_ia32_Breakpoint(dbgi, block, mem);
4904 }
4905
4906 /**
4907  * Transform Builtin return_address
4908  */
4909 static ir_node *gen_return_address(ir_node *node)
4910 {
4911         ir_node   *param    = get_Builtin_param(node, 0);
4912         ir_node   *frame    = get_Builtin_param(node, 1);
4913         dbg_info  *dbgi     = get_irn_dbg_info(node);
4914         ir_tarval *tv       = get_Const_tarval(param);
4915         ir_graph  *irg      = get_irn_irg(node);
4916         unsigned long value = get_tarval_long(tv);
4917
4918         ir_node *block  = be_transform_node(get_nodes_block(node));
4919         ir_node *ptr    = be_transform_node(frame);
4920         ir_node *load;
4921
4922         if (value > 0) {
4923                 ir_node *cnt = new_bd_ia32_ProduceVal(dbgi, block);
4924                 ir_node *res = new_bd_ia32_ProduceVal(dbgi, block);
4925                 ptr = new_bd_ia32_ClimbFrame(dbgi, block, ptr, cnt, res, value);
4926         }
4927
4928         /* load the return address from this frame */
4929         load = new_bd_ia32_Load(dbgi, block, ptr, noreg_GP, nomem);
4930
4931         set_irn_pinned(load, get_irn_pinned(node));
4932         set_ia32_op_type(load, ia32_AddrModeS);
4933         set_ia32_ls_mode(load, mode_Iu);
4934
4935         set_ia32_am_offs_int(load, 0);
4936         set_ia32_use_frame(load);
4937         set_ia32_frame_ent(load, ia32_get_return_address_entity(irg));
4938
4939         if (get_irn_pinned(node) == op_pin_state_floats) {
4940                 assert((int)pn_ia32_xLoad_res == (int)pn_ia32_vfld_res
4941                                 && (int)pn_ia32_vfld_res == (int)pn_ia32_Load_res
4942                                 && (int)pn_ia32_Load_res == (int)pn_ia32_res);
4943                 arch_add_irn_flags(load, arch_irn_flags_rematerializable);
4944         }
4945
4946         SET_IA32_ORIG_NODE(load, node);
4947         return new_r_Proj(load, mode_Iu, pn_ia32_Load_res);
4948 }
4949
4950 /**
4951  * Transform Builtin frame_address
4952  */
4953 static ir_node *gen_frame_address(ir_node *node)
4954 {
4955         ir_node   *param    = get_Builtin_param(node, 0);
4956         ir_node   *frame    = get_Builtin_param(node, 1);
4957         dbg_info  *dbgi     = get_irn_dbg_info(node);
4958         ir_tarval *tv       = get_Const_tarval(param);
4959         ir_graph  *irg      = get_irn_irg(node);
4960         unsigned long value = get_tarval_long(tv);
4961
4962         ir_node *block  = be_transform_node(get_nodes_block(node));
4963         ir_node *ptr    = be_transform_node(frame);
4964         ir_node *load;
4965         ir_entity *ent;
4966
4967         if (value > 0) {
4968                 ir_node *cnt = new_bd_ia32_ProduceVal(dbgi, block);
4969                 ir_node *res = new_bd_ia32_ProduceVal(dbgi, block);
4970                 ptr = new_bd_ia32_ClimbFrame(dbgi, block, ptr, cnt, res, value);
4971         }
4972
4973         /* load the frame address from this frame */
4974         load = new_bd_ia32_Load(dbgi, block, ptr, noreg_GP, nomem);
4975
4976         set_irn_pinned(load, get_irn_pinned(node));
4977         set_ia32_op_type(load, ia32_AddrModeS);
4978         set_ia32_ls_mode(load, mode_Iu);
4979
4980         ent = ia32_get_frame_address_entity(irg);
4981         if (ent != NULL) {
4982                 set_ia32_am_offs_int(load, 0);
4983                 set_ia32_use_frame(load);
4984                 set_ia32_frame_ent(load, ent);
4985         } else {
4986                 /* will fail anyway, but gcc does this: */
4987                 set_ia32_am_offs_int(load, 0);
4988         }
4989
4990         if (get_irn_pinned(node) == op_pin_state_floats) {
4991                 assert((int)pn_ia32_xLoad_res == (int)pn_ia32_vfld_res
4992                                 && (int)pn_ia32_vfld_res == (int)pn_ia32_Load_res
4993                                 && (int)pn_ia32_Load_res == (int)pn_ia32_res);
4994                 arch_add_irn_flags(load, arch_irn_flags_rematerializable);
4995         }
4996
4997         SET_IA32_ORIG_NODE(load, node);
4998         return new_r_Proj(load, mode_Iu, pn_ia32_Load_res);
4999 }
5000
5001 /**
5002  * Transform Builtin frame_address
5003  */
5004 static ir_node *gen_prefetch(ir_node *node)
5005 {
5006         dbg_info       *dbgi;
5007         ir_node        *ptr, *block, *mem, *base, *idx;
5008         ir_node        *param,  *new_node;
5009         long           rw, locality;
5010         ir_tarval      *tv;
5011         ia32_address_t addr;
5012
5013         if (!ia32_cg_config.use_sse_prefetch && !ia32_cg_config.use_3dnow_prefetch) {
5014                 /* no prefetch at all, route memory */
5015                 return be_transform_node(get_Builtin_mem(node));
5016         }
5017
5018         param = get_Builtin_param(node, 1);
5019         tv    = get_Const_tarval(param);
5020         rw    = get_tarval_long(tv);
5021
5022         /* construct load address */
5023         memset(&addr, 0, sizeof(addr));
5024         ptr = get_Builtin_param(node, 0);
5025         ia32_create_address_mode(&addr, ptr, ia32_create_am_normal);
5026         base = addr.base;
5027         idx  = addr.index;
5028
5029         if (base == NULL) {
5030                 base = noreg_GP;
5031         } else {
5032                 base = be_transform_node(base);
5033         }
5034
5035         if (idx == NULL) {
5036                 idx = noreg_GP;
5037         } else {
5038                 idx = be_transform_node(idx);
5039         }
5040
5041         dbgi     = get_irn_dbg_info(node);
5042         block    = be_transform_node(get_nodes_block(node));
5043         mem      = be_transform_node(get_Builtin_mem(node));
5044
5045         if (rw == 1 && ia32_cg_config.use_3dnow_prefetch) {
5046                 /* we have 3DNow!, this was already checked above */
5047                 new_node = new_bd_ia32_PrefetchW(dbgi, block, base, idx, mem);
5048         } else if (ia32_cg_config.use_sse_prefetch) {
5049                 /* note: rw == 1 is IGNORED in that case */
5050                 param    = get_Builtin_param(node, 2);
5051                 tv       = get_Const_tarval(param);
5052                 locality = get_tarval_long(tv);
5053
5054                 /* SSE style prefetch */
5055                 switch (locality) {
5056                 case 0:
5057                         new_node = new_bd_ia32_PrefetchNTA(dbgi, block, base, idx, mem);
5058                         break;
5059                 case 1:
5060                         new_node = new_bd_ia32_Prefetch2(dbgi, block, base, idx, mem);
5061                         break;
5062                 case 2:
5063                         new_node = new_bd_ia32_Prefetch1(dbgi, block, base, idx, mem);
5064                         break;
5065                 default:
5066                         new_node = new_bd_ia32_Prefetch0(dbgi, block, base, idx, mem);
5067                         break;
5068                 }
5069         } else {
5070                 assert(ia32_cg_config.use_3dnow_prefetch);
5071                 /* 3DNow! style prefetch */
5072                 new_node = new_bd_ia32_Prefetch(dbgi, block, base, idx, mem);
5073         }
5074
5075         set_irn_pinned(new_node, get_irn_pinned(node));
5076         set_ia32_op_type(new_node, ia32_AddrModeS);
5077         set_ia32_ls_mode(new_node, mode_Bu);
5078         set_address(new_node, &addr);
5079
5080         SET_IA32_ORIG_NODE(new_node, node);
5081
5082         return new_r_Proj(new_node, mode_M, pn_ia32_Prefetch_M);
5083 }
5084
5085 /**
5086  * Transform bsf like node
5087  */
5088 static ir_node *gen_unop_AM(ir_node *node, construct_binop_dest_func *func)
5089 {
5090         ir_node *param     = get_Builtin_param(node, 0);
5091         dbg_info *dbgi     = get_irn_dbg_info(node);
5092
5093         ir_node *block     = get_nodes_block(node);
5094         ir_node *new_block = be_transform_node(block);
5095
5096         ia32_address_mode_t  am;
5097         ia32_address_t      *addr = &am.addr;
5098         ir_node             *cnt;
5099
5100         match_arguments(&am, block, NULL, param, NULL, match_am);
5101
5102         cnt = func(dbgi, new_block, addr->base, addr->index, addr->mem, am.new_op2);
5103         set_am_attributes(cnt, &am);
5104         set_ia32_ls_mode(cnt, get_irn_mode(param));
5105
5106         SET_IA32_ORIG_NODE(cnt, node);
5107         return fix_mem_proj(cnt, &am);
5108 }
5109
5110 /**
5111  * Transform builtin ffs.
5112  */
5113 static ir_node *gen_ffs(ir_node *node)
5114 {
5115         ir_node  *bsf   = gen_unop_AM(node, new_bd_ia32_Bsf);
5116         ir_node  *real  = skip_Proj(bsf);
5117         dbg_info *dbgi  = get_irn_dbg_info(real);
5118         ir_node  *block = get_nodes_block(real);
5119         ir_node  *flag, *set, *conv, *neg, *orn, *add;
5120
5121         /* bsf x */
5122         if (get_irn_mode(real) != mode_T) {
5123                 set_irn_mode(real, mode_T);
5124                 bsf = new_r_Proj(real, mode_Iu, pn_ia32_res);
5125         }
5126
5127         flag = new_r_Proj(real, mode_b, pn_ia32_flags);
5128
5129         /* sete */
5130         set = new_bd_ia32_Setcc(dbgi, block, flag, ia32_cc_equal);
5131         SET_IA32_ORIG_NODE(set, node);
5132
5133         /* conv to 32bit */
5134         conv = new_bd_ia32_Conv_I2I8Bit(dbgi, block, noreg_GP, noreg_GP, nomem, set, mode_Bu);
5135         SET_IA32_ORIG_NODE(conv, node);
5136
5137         /* neg */
5138         neg = new_bd_ia32_Neg(dbgi, block, conv);
5139
5140         /* or */
5141         orn = new_bd_ia32_Or(dbgi, block, noreg_GP, noreg_GP, nomem, bsf, neg);
5142         set_ia32_commutative(orn);
5143
5144         /* add 1 */
5145         add = new_bd_ia32_Lea(dbgi, block, orn, noreg_GP);
5146         add_ia32_am_offs_int(add, 1);
5147         return add;
5148 }
5149
5150 /**
5151  * Transform builtin clz.
5152  */
5153 static ir_node *gen_clz(ir_node *node)
5154 {
5155         ir_node  *bsr   = gen_unop_AM(node, new_bd_ia32_Bsr);
5156         ir_node  *real  = skip_Proj(bsr);
5157         dbg_info *dbgi  = get_irn_dbg_info(real);
5158         ir_node  *block = get_nodes_block(real);
5159         ir_node  *imm   = ia32_create_Immediate(NULL, 0, 31);
5160
5161         return new_bd_ia32_Xor(dbgi, block, noreg_GP, noreg_GP, nomem, bsr, imm);
5162 }
5163
5164 /**
5165  * Transform builtin ctz.
5166  */
5167 static ir_node *gen_ctz(ir_node *node)
5168 {
5169         return gen_unop_AM(node, new_bd_ia32_Bsf);
5170 }
5171
5172 /**
5173  * Transform builtin parity.
5174  */
5175 static ir_node *gen_parity(ir_node *node)
5176 {
5177         dbg_info *dbgi      = get_irn_dbg_info(node);
5178         ir_node  *block     = get_nodes_block(node);
5179         ir_node  *new_block = be_transform_node(block);
5180         ir_node  *param     = get_Builtin_param(node, 0);
5181         ir_node  *new_param = be_transform_node(param);
5182         ir_node  *new_node;
5183
5184         /* the x86 parity bit is stupid: it only looks at the lowest byte,
5185          * so we have to do complicated xoring first.
5186          * (we should also better lower this before the backend so we still have a
5187          * chance for CSE, constant folding and other goodies for some of these
5188          * operations)
5189          */
5190         ir_node *count = ia32_create_Immediate(NULL, 0, 16);
5191         ir_node *shr = new_bd_ia32_Shr(dbgi, new_block, new_param, count);
5192         ir_node *xor = new_bd_ia32_Xor(dbgi, new_block, noreg_GP, noreg_GP, nomem,
5193                                        shr, new_param);
5194         ir_node *xor2 = new_bd_ia32_XorHighLow(dbgi, new_block, xor);
5195         ir_node *flags;
5196
5197         set_irn_mode(xor2, mode_T);
5198         flags = new_r_Proj(xor2, mode_Iu, pn_ia32_XorHighLow_flags);
5199
5200         /* setp */
5201         new_node = new_bd_ia32_Setcc(dbgi, new_block, flags, ia32_cc_not_parity);
5202         SET_IA32_ORIG_NODE(new_node, node);
5203
5204         /* conv to 32bit */
5205         new_node = new_bd_ia32_Conv_I2I8Bit(dbgi, new_block, noreg_GP, noreg_GP,
5206                                             nomem, new_node, mode_Bu);
5207         SET_IA32_ORIG_NODE(new_node, node);
5208         return new_node;
5209 }
5210
5211 /**
5212  * Transform builtin popcount
5213  */
5214 static ir_node *gen_popcount(ir_node *node)
5215 {
5216         ir_node *param     = get_Builtin_param(node, 0);
5217         dbg_info *dbgi     = get_irn_dbg_info(node);
5218
5219         ir_node *block     = get_nodes_block(node);
5220         ir_node *new_block = be_transform_node(block);
5221
5222         ir_node *new_param;
5223         ir_node *imm, *simm, *m1, *s1, *s2, *s3, *s4, *s5, *m2, *m3, *m4, *m5, *m6, *m7, *m8, *m9, *m10, *m11, *m12, *m13;
5224
5225         /* check for SSE4.2 or SSE4a and use the popcnt instruction */
5226         if (ia32_cg_config.use_popcnt) {
5227                 ia32_address_mode_t am;
5228                 ia32_address_t      *addr = &am.addr;
5229                 ir_node             *cnt;
5230
5231                 match_arguments(&am, block, NULL, param, NULL, match_am | match_16bit_am);
5232
5233                 cnt = new_bd_ia32_Popcnt(dbgi, new_block, addr->base, addr->index, addr->mem, am.new_op2);
5234                 set_am_attributes(cnt, &am);
5235                 set_ia32_ls_mode(cnt, get_irn_mode(param));
5236
5237                 SET_IA32_ORIG_NODE(cnt, node);
5238                 return fix_mem_proj(cnt, &am);
5239         }
5240
5241         new_param = be_transform_node(param);
5242
5243         /* do the standard popcount algo */
5244         /* TODO: This is stupid, we should transform this before the backend,
5245          * to get CSE, localopts, etc. for the operations
5246          * TODO: This is also not the optimal algorithm (it is just the starting
5247          * example in hackers delight, they optimize it more on the following page)
5248          * But I'm too lazy to fix this now, as the code should get lowered before
5249          * the backend anyway.
5250          */
5251
5252         /* m1 = x & 0x55555555 */
5253         imm = ia32_create_Immediate(NULL, 0, 0x55555555);
5254         m1 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, new_param, imm);
5255
5256         /* s1 = x >> 1 */
5257         simm = ia32_create_Immediate(NULL, 0, 1);
5258         s1 = new_bd_ia32_Shr(dbgi, new_block, new_param, simm);
5259
5260         /* m2 = s1 & 0x55555555 */
5261         m2 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, s1, imm);
5262
5263         /* m3 = m1 + m2 */
5264         m3 = new_bd_ia32_Lea(dbgi, new_block, m2, m1);
5265
5266         /* m4 = m3 & 0x33333333 */
5267         imm = ia32_create_Immediate(NULL, 0, 0x33333333);
5268         m4 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, m3, imm);
5269
5270         /* s2 = m3 >> 2 */
5271         simm = ia32_create_Immediate(NULL, 0, 2);
5272         s2 = new_bd_ia32_Shr(dbgi, new_block, m3, simm);
5273
5274         /* m5 = s2 & 0x33333333 */
5275         m5 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, s2, imm);
5276
5277         /* m6 = m4 + m5 */
5278         m6 = new_bd_ia32_Lea(dbgi, new_block, m4, m5);
5279
5280         /* m7 = m6 & 0x0F0F0F0F */
5281         imm = ia32_create_Immediate(NULL, 0, 0x0F0F0F0F);
5282         m7 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, m6, imm);
5283
5284         /* s3 = m6 >> 4 */
5285         simm = ia32_create_Immediate(NULL, 0, 4);
5286         s3 = new_bd_ia32_Shr(dbgi, new_block, m6, simm);
5287
5288         /* m8 = s3 & 0x0F0F0F0F */
5289         m8 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, s3, imm);
5290
5291         /* m9 = m7 + m8 */
5292         m9 = new_bd_ia32_Lea(dbgi, new_block, m7, m8);
5293
5294         /* m10 = m9 & 0x00FF00FF */
5295         imm = ia32_create_Immediate(NULL, 0, 0x00FF00FF);
5296         m10 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, m9, imm);
5297
5298         /* s4 = m9 >> 8 */
5299         simm = ia32_create_Immediate(NULL, 0, 8);
5300         s4 = new_bd_ia32_Shr(dbgi, new_block, m9, simm);
5301
5302         /* m11 = s4 & 0x00FF00FF */
5303         m11 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, s4, imm);
5304
5305         /* m12 = m10 + m11 */
5306         m12 = new_bd_ia32_Lea(dbgi, new_block, m10, m11);
5307
5308         /* m13 = m12 & 0x0000FFFF */
5309         imm = ia32_create_Immediate(NULL, 0, 0x0000FFFF);
5310         m13 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, m12, imm);
5311
5312         /* s5 = m12 >> 16 */
5313         simm = ia32_create_Immediate(NULL, 0, 16);
5314         s5 = new_bd_ia32_Shr(dbgi, new_block, m12, simm);
5315
5316         /* res = m13 + s5 */
5317         return new_bd_ia32_Lea(dbgi, new_block, m13, s5);
5318 }
5319
5320 /**
5321  * Transform builtin byte swap.
5322  */
5323 static ir_node *gen_bswap(ir_node *node)
5324 {
5325         ir_node *param     = be_transform_node(get_Builtin_param(node, 0));
5326         dbg_info *dbgi     = get_irn_dbg_info(node);
5327
5328         ir_node *block     = get_nodes_block(node);
5329         ir_node *new_block = be_transform_node(block);
5330         ir_mode *mode      = get_irn_mode(param);
5331         unsigned size      = get_mode_size_bits(mode);
5332         ir_node  *m1, *m2, *m3, *m4, *s1, *s2, *s3, *s4;
5333
5334         switch (size) {
5335         case 32:
5336                 if (ia32_cg_config.use_i486) {
5337                         /* swap available */
5338                         return new_bd_ia32_Bswap(dbgi, new_block, param);
5339                 }
5340                 s1 = new_bd_ia32_Shl(dbgi, new_block, param, ia32_create_Immediate(NULL, 0, 24));
5341                 s2 = new_bd_ia32_Shl(dbgi, new_block, param, ia32_create_Immediate(NULL, 0, 8));
5342
5343                 m1 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, s2, ia32_create_Immediate(NULL, 0, 0xFF00));
5344                 m2 = new_bd_ia32_Lea(dbgi, new_block, s1, m1);
5345
5346                 s3 = new_bd_ia32_Shr(dbgi, new_block, param, ia32_create_Immediate(NULL, 0, 8));
5347
5348                 m3 = new_bd_ia32_And(dbgi, new_block, noreg_GP, noreg_GP, nomem, s3, ia32_create_Immediate(NULL, 0, 0xFF0000));
5349                 m4 = new_bd_ia32_Lea(dbgi, new_block, m2, m3);
5350
5351                 s4 = new_bd_ia32_Shr(dbgi, new_block, param, ia32_create_Immediate(NULL, 0, 24));
5352                 return new_bd_ia32_Lea(dbgi, new_block, m4, s4);
5353
5354         case 16:
5355                 /* swap16 always available */
5356                 return new_bd_ia32_Bswap16(dbgi, new_block, param);
5357
5358         default:
5359                 panic("Invalid bswap size (%d)", size);
5360         }
5361 }
5362
5363 /**
5364  * Transform builtin outport.
5365  */
5366 static ir_node *gen_outport(ir_node *node)
5367 {
5368         ir_node *port  = create_immediate_or_transform(get_Builtin_param(node, 0), 0);
5369         ir_node *oldv  = get_Builtin_param(node, 1);
5370         ir_mode *mode  = get_irn_mode(oldv);
5371         ir_node *value = be_transform_node(oldv);
5372         ir_node *block = be_transform_node(get_nodes_block(node));
5373         ir_node *mem   = be_transform_node(get_Builtin_mem(node));
5374         dbg_info *dbgi = get_irn_dbg_info(node);
5375
5376         ir_node *res = new_bd_ia32_Outport(dbgi, block, port, value, mem);
5377         set_ia32_ls_mode(res, mode);
5378         return res;
5379 }
5380
5381 /**
5382  * Transform builtin inport.
5383  */
5384 static ir_node *gen_inport(ir_node *node)
5385 {
5386         ir_type *tp    = get_Builtin_type(node);
5387         ir_type *rstp  = get_method_res_type(tp, 0);
5388         ir_mode *mode  = get_type_mode(rstp);
5389         ir_node *port  = create_immediate_or_transform(get_Builtin_param(node, 0), 0);
5390         ir_node *block = be_transform_node(get_nodes_block(node));
5391         ir_node *mem   = be_transform_node(get_Builtin_mem(node));
5392         dbg_info *dbgi = get_irn_dbg_info(node);
5393
5394         ir_node *res = new_bd_ia32_Inport(dbgi, block, port, mem);
5395         set_ia32_ls_mode(res, mode);
5396
5397         /* check for missing Result Proj */
5398         return res;
5399 }
5400
5401 /**
5402  * Transform a builtin inner trampoline
5403  */
5404 static ir_node *gen_inner_trampoline(ir_node *node)
5405 {
5406         ir_node  *ptr       = get_Builtin_param(node, 0);
5407         ir_node  *callee    = get_Builtin_param(node, 1);
5408         ir_node  *env       = be_transform_node(get_Builtin_param(node, 2));
5409         ir_node  *mem       = get_Builtin_mem(node);
5410         ir_node  *block     = get_nodes_block(node);
5411         ir_node  *new_block = be_transform_node(block);
5412         ir_node  *val;
5413         ir_node  *store;
5414         ir_node  *rel;
5415         ir_node  *trampoline;
5416         ir_node  *in[2];
5417         dbg_info *dbgi      = get_irn_dbg_info(node);
5418         ia32_address_t addr;
5419
5420         /* construct store address */
5421         memset(&addr, 0, sizeof(addr));
5422         ia32_create_address_mode(&addr, ptr, ia32_create_am_normal);
5423
5424         if (addr.base == NULL) {
5425                 addr.base = noreg_GP;
5426         } else {
5427                 addr.base = be_transform_node(addr.base);
5428         }
5429
5430         if (addr.index == NULL) {
5431                 addr.index = noreg_GP;
5432         } else {
5433                 addr.index = be_transform_node(addr.index);
5434         }
5435         addr.mem = be_transform_node(mem);
5436
5437         /* mov  ecx, <env> */
5438         val   = ia32_create_Immediate(NULL, 0, 0xB9);
5439         store = new_bd_ia32_Store8Bit(dbgi, new_block, addr.base,
5440                                       addr.index, addr.mem, val);
5441         set_irn_pinned(store, get_irn_pinned(node));
5442         set_ia32_op_type(store, ia32_AddrModeD);
5443         set_ia32_ls_mode(store, mode_Bu);
5444         set_address(store, &addr);
5445         addr.mem = store;
5446         addr.offset += 1;
5447
5448         store = new_bd_ia32_Store(dbgi, new_block, addr.base,
5449                                   addr.index, addr.mem, env);
5450         set_irn_pinned(store, get_irn_pinned(node));
5451         set_ia32_op_type(store, ia32_AddrModeD);
5452         set_ia32_ls_mode(store, mode_Iu);
5453         set_address(store, &addr);
5454         addr.mem = store;
5455         addr.offset += 4;
5456
5457         /* jmp rel <callee> */
5458         val   = ia32_create_Immediate(NULL, 0, 0xE9);
5459         store = new_bd_ia32_Store8Bit(dbgi, new_block, addr.base,
5460                                      addr.index, addr.mem, val);
5461         set_irn_pinned(store, get_irn_pinned(node));
5462         set_ia32_op_type(store, ia32_AddrModeD);
5463         set_ia32_ls_mode(store, mode_Bu);
5464         set_address(store, &addr);
5465         addr.mem = store;
5466         addr.offset += 1;
5467
5468         trampoline = be_transform_node(ptr);
5469
5470         /* the callee is typically an immediate */
5471         if (is_SymConst(callee)) {
5472                 rel = new_bd_ia32_Const(dbgi, new_block, get_SymConst_entity(callee), 0, 0, -10);
5473         } else {
5474                 rel = new_bd_ia32_Lea(dbgi, new_block, be_transform_node(callee), noreg_GP);
5475                 add_ia32_am_offs_int(rel, -10);
5476         }
5477         rel = new_bd_ia32_Sub(dbgi, new_block, noreg_GP, noreg_GP, nomem, rel, trampoline);
5478
5479         store = new_bd_ia32_Store(dbgi, new_block, addr.base,
5480                                   addr.index, addr.mem, rel);
5481         set_irn_pinned(store, get_irn_pinned(node));
5482         set_ia32_op_type(store, ia32_AddrModeD);
5483         set_ia32_ls_mode(store, mode_Iu);
5484         set_address(store, &addr);
5485
5486         in[0] = store;
5487         in[1] = trampoline;
5488
5489         return new_r_Tuple(new_block, 2, in);
5490 }
5491
5492 /**
5493  * Transform Builtin node.
5494  */
5495 static ir_node *gen_Builtin(ir_node *node)
5496 {
5497         ir_builtin_kind kind = get_Builtin_kind(node);
5498
5499         switch (kind) {
5500         case ir_bk_trap:
5501                 return gen_trap(node);
5502         case ir_bk_debugbreak:
5503                 return gen_debugbreak(node);
5504         case ir_bk_return_address:
5505                 return gen_return_address(node);
5506         case ir_bk_frame_address:
5507                 return gen_frame_address(node);
5508         case ir_bk_prefetch:
5509                 return gen_prefetch(node);
5510         case ir_bk_ffs:
5511                 return gen_ffs(node);
5512         case ir_bk_clz:
5513                 return gen_clz(node);
5514         case ir_bk_ctz:
5515                 return gen_ctz(node);
5516         case ir_bk_parity:
5517                 return gen_parity(node);
5518         case ir_bk_popcount:
5519                 return gen_popcount(node);
5520         case ir_bk_bswap:
5521                 return gen_bswap(node);
5522         case ir_bk_outport:
5523                 return gen_outport(node);
5524         case ir_bk_inport:
5525                 return gen_inport(node);
5526         case ir_bk_inner_trampoline:
5527                 return gen_inner_trampoline(node);
5528         }
5529         panic("Builtin %s not implemented in IA32", get_builtin_kind_name(kind));
5530 }
5531
5532 /**
5533  * Transform Proj(Builtin) node.
5534  */
5535 static ir_node *gen_Proj_Builtin(ir_node *proj)
5536 {
5537         ir_node         *node     = get_Proj_pred(proj);
5538         ir_node         *new_node = be_transform_node(node);
5539         ir_builtin_kind kind      = get_Builtin_kind(node);
5540
5541         switch (kind) {
5542         case ir_bk_return_address:
5543         case ir_bk_frame_address:
5544         case ir_bk_ffs:
5545         case ir_bk_clz:
5546         case ir_bk_ctz:
5547         case ir_bk_parity:
5548         case ir_bk_popcount:
5549         case ir_bk_bswap:
5550                 assert(get_Proj_proj(proj) == pn_Builtin_1_result);
5551                 return new_node;
5552         case ir_bk_trap:
5553         case ir_bk_debugbreak:
5554         case ir_bk_prefetch:
5555         case ir_bk_outport:
5556                 assert(get_Proj_proj(proj) == pn_Builtin_M);
5557                 return new_node;
5558         case ir_bk_inport:
5559                 if (get_Proj_proj(proj) == pn_Builtin_1_result) {
5560                         return new_r_Proj(new_node, get_irn_mode(proj), pn_ia32_Inport_res);
5561                 } else {
5562                         assert(get_Proj_proj(proj) == pn_Builtin_M);
5563                         return new_r_Proj(new_node, mode_M, pn_ia32_Inport_M);
5564                 }
5565         case ir_bk_inner_trampoline:
5566                 if (get_Proj_proj(proj) == pn_Builtin_1_result) {
5567                         return get_Tuple_pred(new_node, 1);
5568                 } else {
5569                         assert(get_Proj_proj(proj) == pn_Builtin_M);
5570                         return get_Tuple_pred(new_node, 0);
5571                 }
5572         }
5573         panic("Builtin %s not implemented in IA32", get_builtin_kind_name(kind));
5574 }
5575
5576 static ir_node *gen_be_IncSP(ir_node *node)
5577 {
5578         ir_node *res = be_duplicate_node(node);
5579         arch_add_irn_flags(res, arch_irn_flags_modify_flags);
5580
5581         return res;
5582 }
5583
5584 /**
5585  * Transform the Projs from a be_Call.
5586  */
5587 static ir_node *gen_Proj_be_Call(ir_node *node)
5588 {
5589         ir_node  *call        = get_Proj_pred(node);
5590         ir_node  *new_call    = be_transform_node(call);
5591         dbg_info *dbgi        = get_irn_dbg_info(node);
5592         long      proj        = get_Proj_proj(node);
5593         ir_mode  *mode        = get_irn_mode(node);
5594         ir_node  *res;
5595
5596         if (proj == pn_be_Call_M) {
5597                 return new_rd_Proj(dbgi, new_call, mode_M, n_ia32_Call_mem);
5598         }
5599         /* transform call modes */
5600         if (mode_is_data(mode)) {
5601                 const arch_register_class_t *cls = arch_get_irn_reg_class(node);
5602                 mode = cls->mode;
5603         }
5604
5605         /* Map from be_Call to ia32_Call proj number */
5606         if (proj == pn_be_Call_sp) {
5607                 proj = pn_ia32_Call_stack;
5608         } else if (proj == pn_be_Call_M) {
5609                 proj = pn_ia32_Call_M;
5610         } else if (proj == pn_be_Call_X_except) {
5611                 proj = pn_ia32_Call_X_except;
5612         } else if (proj == pn_be_Call_X_regular) {
5613                 proj = pn_ia32_Call_X_regular;
5614         } else {
5615                 arch_register_req_t const *const req    = arch_get_irn_register_req(node);
5616                 int                        const n_outs = arch_get_irn_n_outs(new_call);
5617                 int                              i;
5618
5619                 assert(proj      >= pn_be_Call_first_res);
5620                 assert(req->type & arch_register_req_type_limited);
5621
5622                 for (i = 0; i < n_outs; ++i) {
5623                         arch_register_req_t const *const new_req
5624                                 = arch_get_irn_register_req_out(new_call, i);
5625
5626                         if (!(new_req->type & arch_register_req_type_limited) ||
5627                             new_req->cls      != req->cls                     ||
5628                             *new_req->limited != *req->limited)
5629                                 continue;
5630
5631                         proj = i;
5632                         break;
5633                 }
5634                 assert(i < n_outs);
5635         }
5636
5637         res = new_rd_Proj(dbgi, new_call, mode, proj);
5638
5639         /* TODO arch_set_irn_register() only operates on Projs, need variant with index */
5640         switch (proj) {
5641         case pn_ia32_Call_stack:
5642                 arch_set_irn_register(res, &ia32_registers[REG_ESP]);
5643                 break;
5644
5645         case pn_ia32_Call_fpcw:
5646                 arch_set_irn_register(res, &ia32_registers[REG_FPCW]);
5647                 break;
5648         }
5649
5650         return res;
5651 }
5652
5653 /**
5654  * Transform the Projs from a Cmp.
5655  */
5656 static ir_node *gen_Proj_Cmp(ir_node *node)
5657 {
5658         /* this probably means not all mode_b nodes were lowered... */
5659         panic("trying to directly transform Proj_Cmp %+F (mode_b not lowered?)",
5660               node);
5661 }
5662
5663 static ir_node *gen_Proj_ASM(ir_node *node)
5664 {
5665         ir_mode *mode     = get_irn_mode(node);
5666         ir_node *pred     = get_Proj_pred(node);
5667         ir_node *new_pred = be_transform_node(pred);
5668         long     pos      = get_Proj_proj(node);
5669
5670         if (mode == mode_M) {
5671                 pos = arch_get_irn_n_outs(new_pred)-1;
5672         } else if (mode_is_int(mode) || mode_is_reference(mode)) {
5673                 mode = mode_Iu;
5674         } else if (mode_is_float(mode)) {
5675                 mode = mode_E;
5676         } else {
5677                 panic("unexpected proj mode at ASM");
5678         }
5679
5680         return new_r_Proj(new_pred, mode, pos);
5681 }
5682
5683 /**
5684  * Transform and potentially renumber Proj nodes.
5685  */
5686 static ir_node *gen_Proj(ir_node *node)
5687 {
5688         ir_node *pred = get_Proj_pred(node);
5689         long    proj;
5690
5691         switch (get_irn_opcode(pred)) {
5692         case iro_Load:
5693                 return gen_Proj_Load(node);
5694         case iro_Store:
5695                 return gen_Proj_Store(node);
5696         case iro_ASM:
5697                 return gen_Proj_ASM(node);
5698         case iro_Builtin:
5699                 return gen_Proj_Builtin(node);
5700         case iro_Div:
5701                 return gen_Proj_Div(node);
5702         case iro_Mod:
5703                 return gen_Proj_Mod(node);
5704         case iro_CopyB:
5705                 return gen_Proj_CopyB(node);
5706         case beo_SubSP:
5707                 return gen_Proj_be_SubSP(node);
5708         case beo_AddSP:
5709                 return gen_Proj_be_AddSP(node);
5710         case beo_Call:
5711                 return gen_Proj_be_Call(node);
5712         case iro_Cmp:
5713                 return gen_Proj_Cmp(node);
5714         case iro_Start:
5715                 proj = get_Proj_proj(node);
5716                 switch (proj) {
5717                         case pn_Start_X_initial_exec: {
5718                                 ir_node  *block     = get_nodes_block(pred);
5719                                 ir_node  *new_block = be_transform_node(block);
5720                                 dbg_info *dbgi      = get_irn_dbg_info(node);
5721                                 /* we exchange the ProjX with a jump */
5722                                 ir_node  *jump      = new_rd_Jmp(dbgi, new_block);
5723
5724                                 return jump;
5725                         }
5726                 }
5727                 break;
5728
5729         default:
5730                 if (is_ia32_l_FloattoLL(pred)) {
5731                         return gen_Proj_l_FloattoLL(node);
5732 #ifdef FIRM_EXT_GRS
5733                 } else if (!is_ia32_irn(pred)) { // Quick hack for SIMD optimization
5734 #else
5735                 } else {
5736 #endif
5737                         ir_mode *mode = get_irn_mode(node);
5738                         if (ia32_mode_needs_gp_reg(mode)) {
5739                                 ir_node *new_pred = be_transform_node(pred);
5740                                 ir_node *new_proj = new_r_Proj(new_pred, mode_Iu,
5741                                                                get_Proj_proj(node));
5742                                 new_proj->node_nr = node->node_nr;
5743                                 return new_proj;
5744                         }
5745                 }
5746         }
5747         return be_duplicate_node(node);
5748 }
5749
5750 /**
5751  * Enters all transform functions into the generic pointer
5752  */
5753 static void register_transformers(void)
5754 {
5755         /* first clear the generic function pointer for all ops */
5756         be_start_transform_setup();
5757
5758         be_set_transform_function(op_Add,              gen_Add);
5759         be_set_transform_function(op_And,              gen_And);
5760         be_set_transform_function(op_ASM,              ia32_gen_ASM);
5761         be_set_transform_function(op_be_AddSP,         gen_be_AddSP);
5762         be_set_transform_function(op_be_Call,          gen_be_Call);
5763         be_set_transform_function(op_be_Copy,          gen_be_Copy);
5764         be_set_transform_function(op_be_FrameAddr,     gen_be_FrameAddr);
5765         be_set_transform_function(op_be_IncSP,         gen_be_IncSP);
5766         be_set_transform_function(op_be_Return,        gen_be_Return);
5767         be_set_transform_function(op_be_SubSP,         gen_be_SubSP);
5768         be_set_transform_function(op_Builtin,          gen_Builtin);
5769         be_set_transform_function(op_Cmp,              gen_Cmp);
5770         be_set_transform_function(op_Cond,             gen_Cond);
5771         be_set_transform_function(op_Const,            gen_Const);
5772         be_set_transform_function(op_Conv,             gen_Conv);
5773         be_set_transform_function(op_CopyB,            ia32_gen_CopyB);
5774         be_set_transform_function(op_Div,              gen_Div);
5775         be_set_transform_function(op_Eor,              gen_Eor);
5776         be_set_transform_function(op_ia32_l_Adc,       gen_ia32_l_Adc);
5777         be_set_transform_function(op_ia32_l_Add,       gen_ia32_l_Add);
5778         be_set_transform_function(op_ia32_Leave,       be_duplicate_node);
5779         be_set_transform_function(op_ia32_l_FloattoLL, gen_ia32_l_FloattoLL);
5780         be_set_transform_function(op_ia32_l_IMul,      gen_ia32_l_IMul);
5781         be_set_transform_function(op_ia32_l_LLtoFloat, gen_ia32_l_LLtoFloat);
5782         be_set_transform_function(op_ia32_l_Mul,       gen_ia32_l_Mul);
5783         be_set_transform_function(op_ia32_l_Sbb,       gen_ia32_l_Sbb);
5784         be_set_transform_function(op_ia32_l_Sub,       gen_ia32_l_Sub);
5785         be_set_transform_function(op_ia32_GetEIP,      be_duplicate_node);
5786         be_set_transform_function(op_ia32_Minus64Bit,  be_duplicate_node);
5787         be_set_transform_function(op_ia32_NoReg_GP,    be_duplicate_node);
5788         be_set_transform_function(op_ia32_NoReg_VFP,   be_duplicate_node);
5789         be_set_transform_function(op_ia32_NoReg_XMM,   be_duplicate_node);
5790         be_set_transform_function(op_ia32_PopEbp,      be_duplicate_node);
5791         be_set_transform_function(op_ia32_Push,        be_duplicate_node);
5792         be_set_transform_function(op_IJmp,             gen_IJmp);
5793         be_set_transform_function(op_Jmp,              gen_Jmp);
5794         be_set_transform_function(op_Load,             gen_Load);
5795         be_set_transform_function(op_Minus,            gen_Minus);
5796         be_set_transform_function(op_Mod,              gen_Mod);
5797         be_set_transform_function(op_Mul,              gen_Mul);
5798         be_set_transform_function(op_Mulh,             gen_Mulh);
5799         be_set_transform_function(op_Mux,              gen_Mux);
5800         be_set_transform_function(op_Not,              gen_Not);
5801         be_set_transform_function(op_Or,               gen_Or);
5802         be_set_transform_function(op_Phi,              gen_Phi);
5803         be_set_transform_function(op_Proj,             gen_Proj);
5804         be_set_transform_function(op_Rotl,             gen_Rotl);
5805         be_set_transform_function(op_Shl,              gen_Shl);
5806         be_set_transform_function(op_Shr,              gen_Shr);
5807         be_set_transform_function(op_Shrs,             gen_Shrs);
5808         be_set_transform_function(op_Store,            gen_Store);
5809         be_set_transform_function(op_Sub,              gen_Sub);
5810         be_set_transform_function(op_SymConst,         gen_SymConst);
5811         be_set_transform_function(op_Unknown,          ia32_gen_Unknown);
5812 }
5813
5814 /**
5815  * Pre-transform all unknown and noreg nodes.
5816  */
5817 static void ia32_pretransform_node(void)
5818 {
5819         ir_graph        *irg      = current_ir_graph;
5820         ia32_irg_data_t *irg_data = ia32_get_irg_data(current_ir_graph);
5821
5822         irg_data->noreg_gp       = be_pre_transform_node(irg_data->noreg_gp);
5823         irg_data->noreg_vfp      = be_pre_transform_node(irg_data->noreg_vfp);
5824         irg_data->noreg_xmm      = be_pre_transform_node(irg_data->noreg_xmm);
5825         irg_data->get_eip        = be_pre_transform_node(irg_data->get_eip);
5826         irg_data->fpu_trunc_mode = be_pre_transform_node(irg_data->fpu_trunc_mode);
5827
5828         nomem    = get_irg_no_mem(irg);
5829         noreg_GP = ia32_new_NoReg_gp(irg);
5830 }
5831
5832 /**
5833  * Post-process all calls if we are in SSE mode.
5834  * The ABI requires that the results are in st0, copy them
5835  * to a xmm register.
5836  */
5837 static void postprocess_fp_call_results(void)
5838 {
5839         size_t i, n;
5840
5841         for (i = 0, n = ARR_LEN(call_list); i < n; ++i) {
5842                 ir_node *call = call_list[i];
5843                 ir_type *mtp  = call_types[i];
5844                 int     j;
5845
5846                 for (j = get_method_n_ress(mtp) - 1; j >= 0; --j) {
5847                         ir_type *res_tp = get_method_res_type(mtp, j);
5848                         ir_node *res, *new_res;
5849                         const ir_edge_t *edge, *next;
5850                         ir_mode *res_mode;
5851
5852                         if (! is_atomic_type(res_tp)) {
5853                                 /* no floating point return */
5854                                 continue;
5855                         }
5856                         res_mode = get_type_mode(res_tp);
5857                         if (! mode_is_float(res_mode)) {
5858                                 /* no floating point return */
5859                                 continue;
5860                         }
5861
5862                         res     = be_get_Proj_for_pn(call, pn_ia32_Call_vf0 + j);
5863                         new_res = NULL;
5864
5865                         /* now patch the users */
5866                         foreach_out_edge_safe(res, edge, next) {
5867                                 ir_node *succ = get_edge_src_irn(edge);
5868
5869                                 /* ignore Keeps */
5870                                 if (be_is_Keep(succ))
5871                                         continue;
5872
5873                                 if (is_ia32_xStore(succ)) {
5874                                         /* an xStore can be patched into an vfst */
5875                                         dbg_info *db    = get_irn_dbg_info(succ);
5876                                         ir_node  *block = get_nodes_block(succ);
5877                                         ir_node  *base  = get_irn_n(succ, n_ia32_xStore_base);
5878                                         ir_node  *idx   = get_irn_n(succ, n_ia32_xStore_index);
5879                                         ir_node  *mem   = get_irn_n(succ, n_ia32_xStore_mem);
5880                                         ir_node  *value = get_irn_n(succ, n_ia32_xStore_val);
5881                                         ir_mode  *mode  = get_ia32_ls_mode(succ);
5882
5883                                         ir_node  *st = new_bd_ia32_vfst(db, block, base, idx, mem, value, mode);
5884                                         //ir_node  *mem = new_r_Proj(st, mode_M, pn_ia32_vfst_M);
5885                                         set_ia32_am_offs_int(st, get_ia32_am_offs_int(succ));
5886                                         if (is_ia32_use_frame(succ))
5887                                                 set_ia32_use_frame(st);
5888                                         set_ia32_frame_ent(st, get_ia32_frame_ent(succ));
5889                                         set_irn_pinned(st, get_irn_pinned(succ));
5890                                         set_ia32_op_type(st, ia32_AddrModeD);
5891
5892                                         assert((long)pn_ia32_xStore_M == (long)pn_ia32_vfst_M);
5893                                         assert((long)pn_ia32_xStore_X_regular == (long)pn_ia32_vfst_X_regular);
5894                                         assert((long)pn_ia32_xStore_X_except == (long)pn_ia32_vfst_X_except);
5895
5896                                         exchange(succ, st);
5897
5898                                         continue;
5899                                 }
5900
5901                                 if (new_res == NULL) {
5902                                         dbg_info *db       = get_irn_dbg_info(call);
5903                                         ir_node  *block    = get_nodes_block(call);
5904                                         ir_node  *frame    = get_irg_frame(current_ir_graph);
5905                                         ir_node  *old_mem  = be_get_Proj_for_pn(call, pn_ia32_Call_M);
5906                                         ir_node  *call_mem = new_r_Proj(call, mode_M, pn_ia32_Call_M);
5907                                         ir_node  *vfst, *xld, *new_mem;
5908                                         ir_node  *vfst_mem;
5909
5910                                         /* store st(0) on stack */
5911                                         vfst = new_bd_ia32_vfst(db, block, frame, noreg_GP, call_mem,
5912                                                                 res, res_mode);
5913                                         set_ia32_op_type(vfst, ia32_AddrModeD);
5914                                         set_ia32_use_frame(vfst);
5915
5916                                         vfst_mem = new_r_Proj(vfst, mode_M, pn_ia32_vfst_M);
5917
5918                                         /* load into SSE register */
5919                                         xld = new_bd_ia32_xLoad(db, block, frame, noreg_GP, vfst_mem,
5920                                                                 res_mode);
5921                                         set_ia32_op_type(xld, ia32_AddrModeS);
5922                                         set_ia32_use_frame(xld);
5923
5924                                         new_res = new_r_Proj(xld, res_mode, pn_ia32_xLoad_res);
5925                                         new_mem = new_r_Proj(xld, mode_M, pn_ia32_xLoad_M);
5926
5927                                         if (old_mem != NULL) {
5928                                                 edges_reroute(old_mem, new_mem);
5929                                                 kill_node(old_mem);
5930                                         }
5931                                 }
5932                                 set_irn_n(succ, get_edge_src_pos(edge), new_res);
5933                         }
5934                 }
5935         }
5936 }
5937
5938 /* do the transformation */
5939 void ia32_transform_graph(ir_graph *irg)
5940 {
5941         int cse_last;
5942
5943         register_transformers();
5944         initial_fpcw       = NULL;
5945         ia32_no_pic_adjust = 0;
5946
5947         old_initial_fpcw = be_get_initial_reg_value(irg, &ia32_registers[REG_FPCW]);
5948
5949         be_timer_push(T_HEIGHTS);
5950         ia32_heights = heights_new(irg);
5951         be_timer_pop(T_HEIGHTS);
5952         ia32_calculate_non_address_mode_nodes(irg);
5953
5954         /* the transform phase is not safe for CSE (yet) because several nodes get
5955          * attributes set after their creation */
5956         cse_last = get_opt_cse();
5957         set_opt_cse(0);
5958
5959         call_list  = NEW_ARR_F(ir_node *, 0);
5960         call_types = NEW_ARR_F(ir_type *, 0);
5961         be_transform_graph(irg, ia32_pretransform_node);
5962
5963         if (ia32_cg_config.use_sse2)
5964                 postprocess_fp_call_results();
5965         DEL_ARR_F(call_types);
5966         DEL_ARR_F(call_list);
5967
5968         set_opt_cse(cse_last);
5969
5970         ia32_free_non_address_mode_nodes();
5971         heights_free(ia32_heights);
5972         ia32_heights = NULL;
5973 }
5974
5975 void ia32_init_transform(void)
5976 {
5977         FIRM_DBG_REGISTER(dbg, "firm.be.ia32.transform");
5978 }