- changed to able to "run the path parallel"
[libfirm] / ir / opt / convopt.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   conv node optimisation
23  * @author  Matthias Braun, Christoph Mallon
24  * @version $Id$
25  *
26  * Try to minimize the number of conv nodes by changing modes of operations.
27  * The typical example is the following structure:
28  *    (some node mode_Hs)
29  *            |                                       (some node_Hs)
30  *         Conv Is                                          |
31  *            |                                          Add Hs
32  *          Add Is            gets transformed to           |
33  *            |
34  *         Conv Hs
35  *
36  * TODO: * try to optimize cmp modes
37  *       * decide when it is useful to move the convs through phis
38  */
39 #include "config.h"
40
41 #include "iroptimize.h"
42
43 #include <assert.h>
44 #include <stdbool.h>
45 #include "debug.h"
46 #include "ircons.h"
47 #include "irgmod.h"
48 #include "irgopt.h"
49 #include "irnode_t.h"
50 #include "iredges_t.h"
51 #include "irgwalk.h"
52 #include "irprintf.h"
53 #include "irpass_t.h"
54
55 DEBUG_ONLY(static firm_dbg_module_t *dbg);
56
57 static inline int imin(int a, int b) { return a < b ? a : b; }
58
59 static bool is_optimizable_node(const ir_node *node)
60 {
61         switch (get_irn_opcode(node)) {
62         case iro_Add:
63         case iro_And:
64         case iro_Eor:
65         case iro_Minus:
66         case iro_Mul:
67         case iro_Not:
68         case iro_Or:
69         case iro_Phi:
70         case iro_Shl:
71         case iro_Sub:
72                 return true;
73         default:
74                 return false;
75         }
76 }
77
78 static tarval* conv_const_tv(const ir_node* cnst, ir_mode* dest_mode)
79 {
80         return tarval_convert_to(get_Const_tarval(cnst), dest_mode);
81 }
82
83 static int is_downconv(ir_mode *src_mode, ir_mode *dest_mode)
84 {
85         return
86                 mode_is_int(src_mode) &&
87                 mode_is_int(dest_mode) &&
88                 get_mode_size_bits(dest_mode) <= get_mode_size_bits(src_mode);
89 }
90
91 static int get_conv_costs(const ir_node *node, ir_mode *dest_mode)
92 {
93         ir_mode *mode = get_irn_mode(node);
94         size_t arity;
95         size_t i;
96         int costs;
97
98         if (mode == dest_mode)
99                 return 0;
100
101         if (is_Const(node)) {
102                 /* TODO tarval module is incomplete and can't convert floats to ints */
103                 return conv_const_tv(node, dest_mode) == tarval_bad ? 1 : 0;
104         }
105
106         if (is_Conv(node) &&
107                         is_downconv(mode, dest_mode) &&
108                         get_irn_mode(get_Conv_op(node)) == dest_mode) {
109                 return -1;
110         }
111
112         if (get_irn_n_edges(node) > 1) {
113                 DB((dbg, LEVEL_3, "multi outs at %+F\n", node));
114                 return 1;
115         }
116
117 #if 0 // TODO
118         /* Take the minimum of the conversion costs for Phi predecessors as only one
119          * branch is actually executed at a time */
120         if (is_Phi(node)) {
121                 size_t i;
122                 size_t arity = get_Phi_n_preds(node);
123                 int costs;
124
125                 costs = get_conv_costs(get_Phi_pred(node, 0), dest_mode);
126                 for (i = 1; i < arity; ++i) {
127                         ir_node *pred = get_Phi_pred(node, i);
128                         int c = get_conv_costs(pred, dest_mode);
129                         if (c < costs) costs = c;
130                 }
131
132                 return costs;
133         }
134 #endif
135
136         if (!is_downconv(mode, dest_mode)) {
137                 return 1;
138         }
139
140         if (is_Conv(node)) {
141                 return get_conv_costs(get_Conv_op(node), dest_mode) - 1;
142         }
143
144         if (!is_optimizable_node(node)) {
145                 return 1;
146         }
147
148         costs = 0;
149         // The shift count does not participate in the conv optimisation
150         arity = is_Shl(node) ? 1 : get_irn_arity(node);
151         for (i = 0; i < arity; ++i) {
152                 ir_node *pred = get_irn_n(node, i);
153                 costs += imin(get_conv_costs(pred, dest_mode), 1);
154         }
155
156         return costs;
157 }
158
159 static ir_node *place_conv(ir_node *node, ir_mode *dest_mode)
160 {
161         ir_node *block = get_nodes_block(node);
162         ir_node *conv = new_r_Conv(block, node, dest_mode);
163         return conv;
164 }
165
166 static ir_node *conv_transform(ir_node *node, ir_mode *dest_mode)
167 {
168         ir_mode *mode = get_irn_mode(node);
169         size_t   arity;
170         size_t   i;
171
172         if (mode == dest_mode)
173                 return node;
174
175         if (is_Const(node)) {
176                 /* TODO tarval module is incomplete and can't convert floats to ints */
177                 tarval *tv = conv_const_tv(node, dest_mode);
178                 if (tv == tarval_bad) {
179                         return place_conv(node, dest_mode);
180                 } else {
181                         return new_Const(tv);
182                 }
183         }
184
185         if (is_Conv(node) &&
186                         is_downconv(mode, dest_mode) &&
187                         get_irn_mode(get_Conv_op(node)) == dest_mode) {
188                 return get_Conv_op(node);
189         }
190
191         if (get_irn_n_edges(node) > 1) {
192                 return place_conv(node, dest_mode);
193         }
194
195         if (!is_downconv(mode, dest_mode)) {
196                 return place_conv(node, dest_mode);
197         }
198
199         if (is_Conv(node)) {
200                 return conv_transform(get_Conv_op(node), dest_mode);
201         }
202
203         if (!is_optimizable_node(node)) {
204                 return place_conv(node, dest_mode);
205         }
206
207         // The shift count does not participate in the conv optimisation
208         arity = is_Shl(node) ? 1 : get_irn_arity(node);
209         for (i = 0; i < arity; i++) {
210                 ir_node *pred = get_irn_n(node, i);
211                 ir_node *transformed;
212                 if (get_conv_costs(pred, dest_mode) > 0) {
213                         transformed = place_conv(pred, dest_mode);
214                 } else {
215                         transformed = conv_transform(pred, dest_mode);
216                 }
217                 set_irn_n(node, i, transformed);
218         }
219         set_irn_mode(node, dest_mode);
220         return node;
221 }
222
223 /* TODO, backends (at least ia32) can't handle it at the moment,
224    and it's probably not more efficient on most archs */
225 #if 0
226 static void try_optimize_cmp(ir_node *node)
227 {
228         ir_node *left  = get_Cmp_left(node);
229         ir_node *right = get_Cmp_right(node);
230         ir_node *conv  = NULL;
231
232         if(is_downconv
233 }
234 #endif
235
236 static void conv_opt_walker(ir_node *node, void *data)
237 {
238         ir_node *transformed;
239         ir_node *pred;
240         ir_mode *pred_mode;
241         ir_mode *mode;
242         int costs;
243         bool *changed = data;
244
245 #if 0
246         if(is_Cmp(node)) {
247                 try_optimize_cmp(node);
248                 return;
249         }
250 #endif
251
252         if (!is_Conv(node))
253                 return;
254
255         pred      = get_Conv_op(node);
256         mode      = get_irn_mode(node);
257         pred_mode = get_irn_mode(pred);
258
259         if (mode_is_reference(mode) || mode_is_reference(pred_mode))
260                 return;
261
262         if (!is_Phi(pred) && !is_downconv(pred_mode, mode))
263                 return;
264
265         /* - 1 for the initial conv */
266         costs = get_conv_costs(pred, mode) - 1;
267         DB((dbg, LEVEL_2, "Costs for %+F -> %+F: %d\n", node, pred, costs));
268         if (costs > 0)
269                 return;
270
271         transformed = conv_transform(pred, mode);
272         if (node != transformed) {
273                 exchange(node, transformed);
274                 *changed = true;
275         }
276 }
277
278 int conv_opt(ir_graph *irg)
279 {
280         bool changed;
281         bool invalidate = false;
282         FIRM_DBG_REGISTER(dbg, "firm.opt.conv");
283
284         DB((dbg, LEVEL_1, "===> Performing conversion optimization on %+F\n", irg));
285
286         edges_assure(irg);
287         do {
288                 changed = false;
289                 irg_walk_graph(irg, NULL, conv_opt_walker, &changed);
290                 local_optimize_graph(irg);
291                 invalidate |= changed;
292         } while (changed);
293
294         if (invalidate) {
295                 set_irg_outs_inconsistent(irg);
296         }
297         return invalidate;
298 }
299
300 /* Creates an ir_graph pass for conv_opt. */
301 ir_graph_pass_t *conv_opt_pass(const char *name)
302 {
303         ir_graph_pass_t *path = def_graph_pass_ret(name ? name : "conv_opt", conv_opt);
304
305         // safe to run parallel on all irgs
306         path->run_parallel = 1;
307
308         return path;
309 }