Remove the very thin wrapper function arch_register_get_name().
[libfirm] / ir / be / bearch.h
1 /*
2  * Copyright (C) 1995-2011 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       Processor architecture specification.
23  * @author      Sebastian Hack
24  */
25 #ifndef FIRM_BE_BEARCH_H
26 #define FIRM_BE_BEARCH_H
27
28 #include <stdbool.h>
29
30 #include "firm_types.h"
31 #include "bitset.h"
32 #include "obst.h"
33 #include "raw_bitset.h"
34 #include "irop_t.h"
35
36 #include "be_types.h"
37 #include "beinfo.h"
38 #include "be.h"
39 #include "beirg.h"
40 #include "error.h"
41
42 /**
43  * this constant is returned by the get_sp_bias functions if the stack
44  * is reset (usually because the frame pointer is copied to the stack
45  * pointer
46  */
47 #define SP_BIAS_RESET      INT_MIN
48
49 typedef enum arch_register_class_flags_t {
50         arch_register_class_flag_none      = 0,
51         /** don't do automatic register allocation for this class */
52         arch_register_class_flag_manual_ra = 1U << 0,
53         /** the register models an abstract state (example: fpu rounding mode) */
54         arch_register_class_flag_state     = 1U << 1
55 } arch_register_class_flags_t;
56 ENUM_BITSET(arch_register_class_flags_t)
57
58 typedef enum arch_register_type_t {
59         arch_register_type_none         = 0,
60         /** Do not consider this register when allocating. */
61         arch_register_type_ignore       = 1U << 0,
62         /** The emitter can choose an arbitrary register. The register fulfills any
63          * register constraints as long as the register class matches */
64         arch_register_type_joker        = 1U << 1,
65         /** This is just a virtual register. Virtual registers fulfill any register
66          * constraints as long as the register class matches. It is a allowed to
67          * have multiple definitions for the same virtual register at a point */
68         arch_register_type_virtual      = 1U << 2,
69         /** The register represents a state that should be handled by bestate
70          * code */
71         arch_register_type_state        = 1U << 3,
72 } arch_register_type_t;
73 ENUM_BITSET(arch_register_type_t)
74
75 /**
76  * Different types of register allocation requirements.
77  */
78 typedef enum arch_register_req_type_t {
79         /** No register requirement. */
80         arch_register_req_type_none              = 0,
81         /** All registers in the class are allowed. */
82         arch_register_req_type_normal            = 1U << 0,
83         /** Only a real subset of the class is allowed. */
84         arch_register_req_type_limited           = 1U << 1,
85         /** The register should be equal to another one at the node. */
86         arch_register_req_type_should_be_same    = 1U << 2,
87         /** The register must be unequal from some other at the node. */
88         arch_register_req_type_must_be_different = 1U << 3,
89         /** The registernumber should be aligned (in case of multiregister values)*/
90         arch_register_req_type_aligned           = 1U << 4,
91         /** ignore while allocating registers */
92         arch_register_req_type_ignore            = 1U << 5,
93         /** the output produces a new value for the stack pointer
94          * (this is not really a constraint but a marker to guide the stackpointer
95          * rewiring logic) */
96         arch_register_req_type_produces_sp       = 1U << 6,
97 } arch_register_req_type_t;
98 ENUM_BITSET(arch_register_req_type_t)
99
100 extern const arch_register_req_t *arch_no_register_req;
101
102 /**
103  * Print information about a register requirement in human readable form
104  * @param F   output stream/file
105  * @param req The requirements structure to format.
106  */
107 void arch_dump_register_req(FILE *F, const arch_register_req_t *req,
108                             const ir_node *node);
109
110 void arch_dump_register_reqs(FILE *F, const ir_node *node);
111 void arch_dump_reqs_and_registers(FILE *F, const ir_node *node);
112
113 void arch_set_frame_offset(ir_node *irn, int bias);
114
115 ir_entity *arch_get_frame_entity(const ir_node *irn);
116 int        arch_get_sp_bias(ir_node *irn);
117
118 int             arch_get_op_estimated_cost(const ir_node *irn);
119 arch_inverse_t *arch_get_inverse(const ir_node *irn, int i,
120                                  arch_inverse_t *inverse,
121                                  struct obstack *obstack);
122 int             arch_possible_memory_operand(const ir_node *irn,
123                                              unsigned int i);
124 void            arch_perform_memory_operand(ir_node *irn, ir_node *spill,
125                                             unsigned int i);
126
127 /**
128  * Get the register allocated for a value.
129  */
130 const arch_register_t *arch_get_irn_register(const ir_node *irn);
131
132 /**
133  * Assign register to a value
134  */
135 void arch_set_irn_register(ir_node *irn, const arch_register_t *reg);
136
137 /**
138  * Set the register for a certain output operand.
139  */
140 void arch_set_irn_register_out(ir_node *irn, unsigned pos, const arch_register_t *r);
141
142 const arch_register_t *arch_get_irn_register_out(const ir_node *irn, unsigned pos);
143 const arch_register_t *arch_get_irn_register_in(const ir_node *irn, int pos);
144
145 /**
146  * Get register constraints for an operand at position @p
147  */
148 static inline const arch_register_req_t *arch_get_irn_register_req_in(
149                 const ir_node *node, int pos)
150 {
151         const backend_info_t *info = be_get_info(node);
152         if (info->in_reqs == NULL)
153                 return arch_no_register_req;
154         return info->in_reqs[pos];
155 }
156
157 /**
158  * Get register constraint for a produced result (the @p pos result)
159  */
160 static inline const arch_register_req_t *arch_get_irn_register_req_out(
161                 const ir_node *node, unsigned pos)
162 {
163         const backend_info_t *info = be_get_info(node);
164         if (info->out_infos == NULL)
165                 return arch_no_register_req;
166         return info->out_infos[pos].req;
167 }
168
169 static inline void arch_set_irn_register_req_out(ir_node *node, unsigned pos,
170                 const arch_register_req_t *req)
171 {
172         backend_info_t *info = be_get_info(node);
173         assert(pos < (unsigned)ARR_LEN(info->out_infos));
174         info->out_infos[pos].req = req;
175 }
176
177 static inline void arch_set_irn_register_reqs_in(ir_node *node,
178                 const arch_register_req_t **reqs)
179 {
180         backend_info_t *info = be_get_info(node);
181         info->in_reqs = reqs;
182 }
183
184 static inline const arch_register_req_t **arch_get_irn_register_reqs_in(
185                 const ir_node *node)
186 {
187         backend_info_t *info = be_get_info(node);
188         return info->in_reqs;
189 }
190
191 const arch_register_req_t *arch_get_irn_register_req(const ir_node *node);
192
193 /**
194  * Get the flags of a node.
195  * @param irn The node.
196  * @return The flags.
197  */
198 arch_irn_flags_t arch_get_irn_flags(const ir_node *irn);
199
200 void arch_set_irn_flags(ir_node *node, arch_irn_flags_t flags);
201 void arch_add_irn_flags(ir_node *node, arch_irn_flags_t flags);
202
203 #define arch_irn_is(irn, flag) ((arch_get_irn_flags(irn) & arch_irn_flags_ ## flag) != 0)
204
205 static inline unsigned arch_get_irn_n_outs(const ir_node *node)
206 {
207         backend_info_t *info = be_get_info(node);
208         if (info->out_infos == NULL)
209                 return 0;
210
211         return (unsigned)ARR_LEN(info->out_infos);
212 }
213
214 /**
215  * Start codegeneration
216  */
217 arch_env_t *arch_env_begin_codegeneration(const arch_isa_if_t *isa,
218                                           be_main_env_t *main_env);
219
220 /**
221  * Register an instruction set architecture
222  */
223 void be_register_isa_if(const char *name, const arch_isa_if_t *isa);
224
225 /**
226  * A register.
227  */
228 struct arch_register_t {
229         const char                  *name;         /**< The name of the register. */
230         const arch_register_class_t *reg_class;    /**< The class of the register */
231         unsigned short               index;        /**< The index of the register in
232                                                         the class. */
233         unsigned short               global_index; /**< The global index this
234                                                                                                     register in the architecture. */
235         arch_register_type_t         type;         /**< The type of the register. */
236         /** register constraint allowing just this register */
237         const arch_register_req_t   *single_req;
238         /** register number in dwarf debugging format */
239         unsigned short               dwarf_number;
240 };
241
242 static inline const arch_register_class_t *arch_register_get_class(
243                 const arch_register_t *reg)
244 {
245         return reg->reg_class;
246 }
247
248 static inline unsigned arch_register_get_index(const arch_register_t *reg)
249 {
250         return reg->index;
251 }
252
253 /**
254  * A class of registers.
255  * Like general purpose or floating point.
256  */
257 struct arch_register_class_t {
258         unsigned                     index;   /**< index of this register class */
259         const char                  *name;    /**< The name of the register class.*/
260         unsigned                     n_regs;  /**< Number of registers in this
261                                                    class. */
262         ir_mode                     *mode;    /**< The mode of the register class.*/
263         const arch_register_t       *regs;    /**< The array of registers. */
264         arch_register_class_flags_t  flags;   /**< register class flags. */
265         const arch_register_req_t   *class_req;
266 };
267
268 /** return the number of registers in this register class */
269 #define arch_register_class_n_regs(cls) ((cls)->n_regs)
270
271 /** return the largest mode of this register class */
272 #define arch_register_class_mode(cls) ((cls)->mode)
273
274 /** return the name of this register class */
275 #define arch_register_class_name(cls) ((cls)->name)
276
277 /** return the index of this register class */
278 #define arch_register_class_index(cls)  ((cls)->index)
279
280 /** return the register class flags */
281 #define arch_register_class_flags(cls) ((cls)->flags)
282
283 static inline const arch_register_t *arch_register_for_index(
284                 const arch_register_class_t *cls, unsigned idx)
285 {
286         assert(idx < cls->n_regs);
287         return &cls->regs[idx];
288 }
289
290 /**
291  * Convenience macro to check for set constraints.
292  * @param req   A pointer to register requirements.
293  * @param kind  The kind of constraint to check for
294  *              (see arch_register_req_type_t).
295  * @return      1, If the kind of constraint is present, 0 if not.
296  */
297 #define arch_register_req_is(req, kind) \
298         (((req)->type & (arch_register_req_type_ ## kind)) != 0)
299
300 /**
301  * Expresses requirements to register allocation for an operand.
302  */
303 struct arch_register_req_t {
304         arch_register_req_type_t     type; /**< The type of the constraint. */
305         const arch_register_class_t *cls;  /**< The register class this constraint
306                                                 belongs to. */
307         const unsigned *limited;           /**< allowed register bitset
308                                                 (in case of wide-values this is
309                                                  only about the first register) */
310         unsigned other_same;               /**< Bitmask of ins which should use the
311                                                 same register (should_be_same). */
312         unsigned other_different;          /**< Bitmask of ins which shall use a
313                                                 different register
314                                                 (must_be_different) */
315         unsigned char width;               /**< specifies how many sequential
316                                                 registers are required */
317 };
318
319 static inline bool reg_reqs_equal(const arch_register_req_t *req1,
320                                   const arch_register_req_t *req2)
321 {
322         if (req1 == req2)
323                 return true;
324
325         if (req1->type              != req2->type            ||
326             req1->cls               != req2->cls             ||
327             req1->other_same        != req2->other_same      ||
328             req1->other_different   != req2->other_different ||
329             (req1->limited != NULL) != (req2->limited != NULL))
330                 return false;
331
332         if (req1->limited != NULL) {
333                 size_t const n_regs = arch_register_class_n_regs(req1->cls);
334                 if (!rbitsets_equal(req1->limited, req2->limited, n_regs))
335                         return false;
336         }
337
338         return true;
339 }
340
341 /**
342  * An inverse operation returned by the backend
343  */
344 struct arch_inverse_t {
345         int      n;       /**< count of nodes returned in nodes array */
346         int      costs;   /**< costs of this remat */
347
348         /** nodes for this inverse operation. shall be in schedule order.
349          * last element is the target value */
350         ir_node  **nodes;
351 };
352
353 struct arch_irn_ops_t {
354
355         /**
356          * Get the entity on the stack frame this node depends on.
357          * @param irn  The node in question.
358          * @return The entity on the stack frame or NULL, if the node does not have
359          *         a stack frame entity.
360          */
361         ir_entity *(*get_frame_entity)(const ir_node *irn);
362
363         /**
364          * Set the offset of a node carrying an entity on the stack frame.
365          * @param irn  The node.
366          * @param offset The offset of the node's stack frame entity.
367          */
368         void (*set_frame_offset)(ir_node *irn, int offset);
369
370         /**
371          * Returns the delta of the stackpointer for nodes that increment or
372          * decrement the stackpointer with a constant value. (push, pop
373          * nodes on most architectures).
374          * A positive value stands for an expanding stack area, a negative value for
375          * a shrinking one.
376          *
377          * @param irn       The node
378          * @return          0 if the stackpointer is not modified with a constant
379          *                  value, otherwise the increment/decrement value
380          */
381         int (*get_sp_bias)(const ir_node *irn);
382
383         /**
384          * Returns an inverse operation which yields the i-th argument
385          * of the given node as result.
386          *
387          * @param irn       The original operation
388          * @param i         Index of the argument we want the inverse operation to
389          *                  yield
390          * @param inverse   struct to be filled with the resulting inverse op
391          * @param obstack   The obstack to use for allocation of the returned nodes
392          *                  array
393          * @return          The inverse operation or NULL if operation invertible
394          */
395         arch_inverse_t *(*get_inverse)(const ir_node *irn, int i,
396                                        arch_inverse_t *inverse,
397                                        struct obstack *obstack);
398
399         /**
400          * Get the estimated cycle count for @p irn.
401          *
402          * @param irn  The node.
403          * @return     The estimated cycle count for this operation
404          */
405         int (*get_op_estimated_cost)(const ir_node *irn);
406
407         /**
408          * Asks the backend whether operand @p i of @p irn can be loaded form memory
409          * internally
410          *
411          * @param irn  The node.
412          * @param i    Index of the argument we would like to know whether @p irn
413          *             can load it form memory internally
414          * @return     nonzero if argument can be loaded or zero otherwise
415          */
416         int (*possible_memory_operand)(const ir_node *irn, unsigned int i);
417
418         /**
419          * Ask the backend to assimilate @p reload of operand @p i into @p irn.
420          *
421          * @param irn    The node.
422          * @param spill  The spill.
423          * @param i      The position of the reload.
424          */
425         void (*perform_memory_operand)(ir_node *irn, ir_node *spill,
426                                        unsigned int i);
427 };
428
429 /**
430  * Architecture interface.
431  */
432 struct arch_isa_if_t {
433         /**
434          * Initializes the isa interface. This is necessary before calling any
435          * other functions from this interface.
436          */
437         void (*init)(void);
438
439         /**
440          * Fress resources allocated by this isa interface.
441          */
442         void (*finish)(void);
443
444         /**
445          * Returns the frontend settings needed for this backend.
446          */
447         const backend_params *(*get_params)(void);
448
449         /**
450          * lowers current program for target. See the documentation for
451          * be_lower_for_target() for details.
452          */
453         void (*lower_for_target)(void);
454
455         /**
456          * parse an assembler constraint part and set flags according to its nature
457          * advances the *c pointer to point to the last parsed character (so if you
458          * parse a single character don't advance c)
459          */
460         asm_constraint_flags_t (*parse_asm_constraint)(const char **c);
461
462         /**
463          * returns true if the string is a valid clobbered (register) in this
464          * backend
465          */
466         int (*is_valid_clobber)(const char *clobber);
467
468         /**
469          * Start codegeneration
470          * @return a new isa instance
471          */
472         arch_env_t *(*begin_codegeneration)(const be_main_env_t *env);
473
474         /**
475          * Free the isa instance.
476          */
477         void (*end_codegeneration)(void *self);
478
479         /**
480          * Initialize the code generator for a graph
481          * @param irg  A graph
482          */
483         void (*init_graph)(ir_graph *irg);
484
485         /**
486          * Get the ABI restrictions for procedure calls.
487          * @param call_type   The call type of the method (procedure) in question.
488          * @param p           The array of parameter locations to be filled.
489          */
490         void (*get_call_abi)(ir_type *call_type, be_abi_call_t *abi);
491
492         /**
493          * mark node as rematerialized
494          */
495         void (*mark_remat)(ir_node *node);
496
497         /**
498          * return node used as base in pic code addresses
499          */
500         ir_node* (*get_pic_base)(ir_graph *irg);
501
502         /**
503          * Create a spill instruction. We assume that spill instructions
504          * do not need any additional registers and do not affect cpu-flags in any
505          * way.
506          * Construct a sequence of instructions after @p after (the resulting nodes
507          * are already scheduled).
508          * Returns a mode_M value which is used as input for a reload instruction.
509          */
510         ir_node *(*new_spill)(ir_node *value, ir_node *after);
511
512         /**
513          * Create a reload instruction. We assume that reload instructions do not
514          * need any additional registers and do not affect cpu-flags in any way.
515          * Constructs a sequence of instruction before @p before (the resulting
516          * nodes are already scheduled). A rewiring of users is not performed in
517          * this function.
518          * Returns a value representing the restored value.
519          */
520         ir_node *(*new_reload)(ir_node *value, ir_node *spilled_value,
521                                ir_node *before);
522
523         /**
524          * Checks if the given register is callee/caller saved.
525          * @deprecated, only necessary if backend still uses beabi functions
526          */
527         int (*register_saved_by)(const arch_register_t *reg, int callee);
528
529         /**
530          * Called directly after initialization. Backend should handle all
531          * intrinsics here.
532          */
533         void (*handle_intrinsics)(void);
534
535         /**
536          * Called before abi introduce.
537          */
538         void (*before_abi)(ir_graph *irg);
539
540         /**
541          * Called, when the graph is being normalized.
542          */
543         void (*prepare_graph)(ir_graph *irg);
544
545         /**
546          * Called before register allocation.
547          */
548         void (*before_ra)(ir_graph *irg);
549
550         /**
551          * Called directly before done is called. This should be the last place
552          * where the irg is modified.
553          */
554         void (*finish_graph)(ir_graph *irg);
555
556         /**
557          * Called after everything happened. This call should emit the final
558          * assembly code but avoid changing the irg.
559          */
560         void (*emit)(ir_graph *irg);
561 };
562
563 #define arch_env_end_codegeneration(env)               ((env)->impl->end_codegeneration(env))
564 #define arch_env_handle_intrinsics(env)                \
565         do { if((env)->impl->handle_intrinsics != NULL) (env)->impl->handle_intrinsics(); } while(0)
566 #define arch_env_get_call_abi(env,tp,abi)              ((env)->impl->get_call_abi((tp), (abi)))
567 #define arch_env_get_params(env)                       ((env)->impl->get_params())
568 #define arch_env_parse_asm_constraint(env,c)           ((env)->impl->parse_asm_constraint((c))
569 #define arch_env_is_valid_clobber(env,clobber)         ((env)->impl->is_valid_clobber((clobber))
570 #define arch_env_mark_remat(env,node) \
571         do { if ((env)->impl->mark_remat != NULL) (env)->impl->mark_remat((node)); } while(0)
572
573 #define arch_env_new_spill(env,value,after)            ((env)->impl->new_spill(value, after))
574 #define arch_env_new_reload(env,value,spilled,before)  ((env)->impl->new_reload(value, spilled, before))
575
576 /**
577  * ISA base class.
578  */
579 struct arch_env_t {
580         const arch_isa_if_t   *impl;
581         unsigned               n_registers;      /**< number of registers */
582         const arch_register_t *registers;        /**< register array */
583         unsigned               n_register_classes; /**< number of register classes*/
584         const arch_register_class_t *register_classes; /**< register classes */
585         const arch_register_t *sp;               /**< The stack pointer register. */
586         const arch_register_t *bp;               /**< The base pointer register. */
587         const arch_register_class_t *link_class; /**< The static link pointer
588                                                       register class. */
589         int                    stack_alignment;  /**< power of 2 stack alignment */
590         const be_main_env_t   *main_env;         /**< the be main environment */
591         int                    spill_cost;       /**< cost for a be_Spill node */
592         int                    reload_cost;      /**< cost for a be_Reload node */
593         bool                   custom_abi : 1;   /**< backend does all abi handling
594                                                       and does not need the generic
595                                                       stuff from beabi.h/.c */
596 };
597
598 static inline bool arch_irn_is_ignore(const ir_node *irn)
599 {
600         const arch_register_req_t *req = arch_get_irn_register_req(irn);
601         return req->type & arch_register_req_type_ignore;
602 }
603
604 static inline bool arch_irn_consider_in_reg_alloc(
605                 const arch_register_class_t *cls, const ir_node *node)
606 {
607         const arch_register_req_t *req = arch_get_irn_register_req(node);
608         return
609                 req->cls == cls &&
610                 !(req->type & arch_register_req_type_ignore);
611 }
612
613 /**
614  * Iterate over all values defined by an instruction.
615  * Only looks at values in a certain register class where the requirements
616  * are not marked as ignore.
617  * Executes @p code for each definition.
618  */
619 #define be_foreach_definition_(node, ccls, value, code)                    \
620         do {                                                                   \
621         if (get_irn_mode(node) == mode_T) {                                    \
622                 foreach_out_edge(node, edge_) {                                    \
623                         const arch_register_req_t *req_;                               \
624                         value = get_edge_src_irn(edge_);                               \
625                         req_  = arch_get_irn_register_req(value);                      \
626                         if (req_->cls != ccls)                                         \
627                                 continue;                                                  \
628                         code                                                           \
629                 }                                                                  \
630         } else {                                                               \
631                 const arch_register_req_t *req_ = arch_get_irn_register_req(node); \
632                 value = node;                                                      \
633                 if (req_->cls == ccls) {                                           \
634                         code                                                           \
635                 }                                                                  \
636         }                                                                      \
637         } while (0)
638
639 #define be_foreach_definition(node, ccls, value, code)                     \
640         be_foreach_definition_(node, ccls, value,                              \
641                 if (req_->type & arch_register_req_type_ignore)                    \
642                         continue;                                                      \
643                 code                                                               \
644         )
645
646 static inline const arch_register_class_t *arch_get_irn_reg_class(
647                 const ir_node *node)
648 {
649         const arch_register_req_t *req = arch_get_irn_register_req(node);
650         return req->cls;
651 }
652
653 bool arch_reg_is_allocatable(const arch_register_req_t *req,
654                              const arch_register_t *reg);
655
656 #endif