fixed be_Return gen
[libfirm] / ir / be / bearch.c
1 /**
2  * Processor architecture specification.
3  * @author Sebastian Hack
4  * @date 11.2.2005
5  *
6  * $Id$
7  */
8
9 #ifdef HAVE_CONFIG_H
10 #include "config.h"
11 #endif
12
13 #ifdef HAVE_ALLOCA_H
14 #include <alloca.h>
15 #endif
16
17 #ifdef HAVE_MALLOC_H
18 #include <malloc.h>
19 #endif
20
21 #include <string.h>
22
23 #include "bearch.h"
24 #include "ircons_t.h"
25 #include "irnode_t.h"
26
27 #include "bitset.h"
28 #include "pset.h"
29 #include "entity.h"
30
31 #include "irprintf.h"
32
33 /* Initialize the architecture environment struct. */
34 arch_env_t *arch_env_init(arch_env_t *env, const arch_isa_if_t *isa_if, FILE *file_handle)
35 {
36   memset(env, 0, sizeof(*env));
37   env->isa = isa_if->init(file_handle);
38   return env;
39 }
40
41 arch_env_t *arch_env_push_irn_handler(arch_env_t *env,
42     const arch_irn_handler_t *handler)
43 {
44   assert(env->handlers_tos <= ARCH_MAX_HANDLERS);
45   env->handlers[env->handlers_tos++] = handler;
46   return env;
47 }
48
49 const arch_irn_handler_t *arch_env_pop_irn_handler(arch_env_t *env)
50 {
51   assert(env->handlers_tos > 0 && env->handlers_tos <= ARCH_MAX_HANDLERS);
52   return env->handlers[--env->handlers_tos];
53 }
54
55 static const arch_irn_ops_t *fallback_irn_ops = NULL;
56
57 int arch_register_class_put(const arch_register_class_t *cls, bitset_t *bs)
58 {
59   if(bs) {
60     int i, n;
61     for(i = 0, n = cls->n_regs; i < n; ++i)
62       bitset_set(bs, i);
63   }
64
65   return cls->n_regs;
66 }
67
68 /**
69  * Get the isa responsible for a node.
70  * @param env The arch environment with the isa stack.
71  * @param irn The node to get the responsible isa for.
72  * @return The irn operations given by the responsible isa.
73  */
74 static INLINE const arch_irn_ops_t *
75 get_irn_ops(const arch_env_t *env, const ir_node *irn)
76 {
77   int i;
78
79   for(i = env->handlers_tos - 1; i >= 0; --i) {
80     const arch_irn_handler_t *handler = env->handlers[i];
81     const arch_irn_ops_t *ops = handler->get_irn_ops(handler, irn);
82
83     if(ops)
84       return ops;
85   }
86
87   return fallback_irn_ops;
88 }
89
90 const arch_register_req_t *arch_get_register_req(const arch_env_t *env,
91     arch_register_req_t *req, const ir_node *irn, int pos)
92 {
93   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
94   req->type = arch_register_req_type_none;
95   return ops->impl->get_irn_reg_req(ops, req, irn, pos);
96 }
97
98 void arch_set_frame_offset(const arch_env_t *env, ir_node *irn, int offset)
99 {
100   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
101   ops->impl->set_frame_offset(ops, irn, offset);
102 }
103
104 entity *arch_get_frame_entity(const arch_env_t *env, ir_node *irn)
105 {
106   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
107   return ops->impl->get_frame_entity(ops, irn);
108 }
109
110 arch_inverse_t *arch_get_inverse(const arch_env_t *env, const ir_node *irn, int i, arch_inverse_t *inverse, struct obstack *obstack)
111 {
112   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
113   if(ops->impl->get_inverse) {
114     return ops->impl->get_inverse(ops, irn, i, inverse, obstack);
115   } else {
116     return NULL;
117   }
118 }
119
120 int arch_possible_memory_operand(const arch_env_t *env, const ir_node *irn, unsigned int i) {
121         const arch_irn_ops_t *ops = get_irn_ops(env, irn);
122         if(ops->impl->possible_memory_operand) {
123                 return ops->impl->possible_memory_operand(ops, irn, i);
124         } else {
125                 return 0;
126         }
127 }
128
129 extern void arch_perform_memory_operand(const arch_env_t *env, ir_node *irn, ir_node *reload, unsigned int i) {
130         const arch_irn_ops_t *ops = get_irn_ops(env, irn);
131         if(ops->impl->perform_memory_operand) {
132                 ops->impl->perform_memory_operand(ops, irn, reload, i);
133         } else {
134                 return;
135         }
136 }
137
138 int arch_get_op_estimated_cost(const arch_env_t *env, const ir_node *irn)
139 {
140   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
141   if(ops->impl->get_op_estimated_cost) {
142     return ops->impl->get_op_estimated_cost(ops, irn);
143   } else {
144     return 1;
145   }
146 }
147
148 int arch_is_possible_memory_operand(const arch_env_t *env, const ir_node *irn, int i)
149 {
150   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
151   if(ops->impl->possible_memory_operand) {
152     return ops->impl->possible_memory_operand(ops, irn, i);
153   } else {
154     return 0;
155   }
156 }
157
158 int arch_get_allocatable_regs(const arch_env_t *env, const ir_node *irn, int pos, bitset_t *bs)
159 {
160   arch_register_req_t local_req;
161   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
162   const arch_register_req_t *req = ops->impl->get_irn_reg_req(ops, &local_req, irn, pos);
163
164   if(req->type == arch_register_req_type_none) {
165           bitset_clear_all(bs);
166           return 0;
167   }
168
169   if(arch_register_req_is(req, limited)) {
170           req->limited(req->limited_env, bs);
171           return bitset_popcnt(bs);
172   }
173
174   arch_register_class_put(req->cls, bs);
175   return req->cls->n_regs;
176 }
177
178 void arch_put_non_ignore_regs(const arch_env_t *env, const arch_register_class_t *cls, bitset_t *bs)
179 {
180         int i;
181
182         for(i = 0; i < cls->n_regs; ++i) {
183                 if(!arch_register_type_is(&cls->regs[i], ignore))
184                         bitset_set(bs, i);
185         }
186 }
187
188 int arch_count_non_ignore_regs(const arch_env_t *env, const arch_register_class_t *cls)
189 {
190         int i;
191         int result = 0;
192
193         for(i = 0; i < cls->n_regs; ++i) {
194                 if(!arch_register_type_is(&cls->regs[i], ignore))
195                         result++;
196         }
197
198         return result;
199 }
200
201 int arch_is_register_operand(const arch_env_t *env,
202     const ir_node *irn, int pos)
203 {
204         arch_register_req_t local_req;
205         const arch_irn_ops_t *ops = get_irn_ops(env, irn);
206         const arch_register_req_t *req = ops->impl->get_irn_reg_req(ops, &local_req, irn, pos);
207         return req != NULL;
208 }
209
210 int arch_reg_is_allocatable(const arch_env_t *env, const ir_node *irn,
211     int pos, const arch_register_t *reg)
212 {
213         arch_register_req_t req;
214
215         arch_get_register_req(env, &req, irn, pos);
216
217         if(req.type == arch_register_req_type_none)
218                 return 0;
219
220         if(arch_register_req_is(&req, limited)) {
221                 bitset_t *bs = bitset_alloca(req.cls->n_regs);
222                 req.limited(req.limited_env, bs);
223                 return bitset_is_set(bs, arch_register_get_index(reg));
224         }
225
226         return req.cls == reg->reg_class;
227 }
228
229 const arch_register_class_t *
230 arch_get_irn_reg_class(const arch_env_t *env, const ir_node *irn, int pos)
231 {
232   arch_register_req_t local_req;
233   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
234   const arch_register_req_t *req = ops->impl->get_irn_reg_req(ops, &local_req, irn, pos);
235   return req ? req->cls : NULL;
236 }
237
238 extern const arch_register_t *
239 arch_get_irn_register(const arch_env_t *env, const ir_node *irn)
240 {
241   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
242   return ops->impl->get_irn_reg(ops, irn);
243 }
244
245 extern void arch_set_irn_register(const arch_env_t *env,
246     ir_node *irn, const arch_register_t *reg)
247 {
248   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
249   ops->impl->set_irn_reg(ops, irn, reg);
250 }
251
252 extern arch_irn_class_t arch_irn_classify(const arch_env_t *env, const ir_node *irn)
253 {
254   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
255   return ops->impl->classify(ops, irn);
256 }
257
258 extern arch_irn_flags_t arch_irn_get_flags(const arch_env_t *env, const ir_node *irn)
259 {
260   const arch_irn_ops_t *ops = get_irn_ops(env, irn);
261   return ops->impl->get_flags(ops, irn);
262 }
263
264 extern const char *arch_irn_flag_str(arch_irn_flags_t fl)
265 {
266         switch(fl) {
267 #define XXX(x) case arch_irn_flags_ ## x: return #x;
268                 XXX(dont_spill);
269                 XXX(ignore);
270                 XXX(rematerializable);
271                 XXX(modify_sp);
272                 XXX(none);
273 #undef XXX
274         }
275         return "n/a";
276 }
277
278 extern char *arch_register_req_format(char *buf, size_t len, const arch_register_req_t *req)
279 {
280         char tmp[128];
281         snprintf(buf, len, "class: %s", req->cls->name);
282
283         if(arch_register_req_is(req, limited)) {
284                 bitset_pos_t elm;
285                 bitset_t *bs = bitset_alloca(req->cls->n_regs);
286                 req->limited(req->limited_env, bs);
287                 strncat(buf, " limited:", len);
288                 bitset_foreach(bs, elm) {
289                         strncat(buf, " ", len);
290                         strncat(buf, req->cls->regs[elm].name, len);
291                 }
292         }
293
294         if(arch_register_req_is(req, should_be_same)) {
295                 ir_snprintf(tmp, sizeof(tmp), " same to: %+F", req->other_different);
296                 strncat(buf, tmp, len);
297         }
298
299         if(arch_register_req_is(req, should_be_different)) {
300                 ir_snprintf(tmp, sizeof(tmp), " different to: %+F", req->other_different);
301                 strncat(buf, tmp, len);
302         }
303
304         return buf;
305 }