free_methods was a bad base for callgraph walks, use methods which have no callers...
[libfirm] / include / libfirm / iroptimize.h
index 1b8dfb8..567f49b 100644 (file)
@@ -20,7 +20,7 @@
 /**
  * @file
  * @brief   Available Optimisations of libFirm.
- * @version $Id: cfopt.h 13543 2007-04-29 19:29:02Z beck $
+ * @version $Id$
  */
 #ifndef FIRM_IROPTIMIZE_H
 #define FIRM_IROPTIMIZE_H
@@ -159,10 +159,6 @@ void optimize_funccalls(int force_run, check_alloc_entity_func callback);
  * Based on VanDrunen and Hosking 2004.
  *
  * @param irg  the graph
- *
- * @note
- * Currently completely broken because the used sets do NOT
- * preserve the topological sort of its elements.
  */
 void do_gvn_pre(ir_graph *irg);
 
@@ -172,7 +168,7 @@ void do_gvn_pre(ir_graph *irg);
  * If it returns non-zero, a mux is created, else the code
  * is not modified.
  * @param sel        A selector of a Cond.
- * @param phi_list   List of Phi nodes about to be converted (linked via link field)
+ * @param phi_list   List of Phi nodes about to be converted (linked via get_Phi_next() field)
  * @param i          First data predecessor involved in if conversion
  * @param j          Second data predecessor involved in if conversion
  */
@@ -200,7 +196,20 @@ struct ir_settings_if_conv_t {
  */
 void opt_if_conv(ir_graph *irg, const ir_settings_if_conv_t *params);
 
-void opt_ldst2(ir_graph *irg);
+void opt_sync(ir_graph *irg);
+
+/*
+ * Check if we can replace the load by a given const from
+ * the const code irg.
+ *
+ * @param load   the load to replace
+ * @param c      the constant
+ *
+ * @return in the modes match or can be transformed using a reinterpret cast
+ *         returns a copy of the constant (possibly Conv'ed) on the
+ *         current_ir_graph
+ */
+ir_node *can_replace_load_by_const(const ir_node *load, ir_node *c);
 
 /**
  * Load/Store optimization.
@@ -417,15 +426,23 @@ void normalize_n_returns(ir_graph *irg);
  * with atomic values if possible. Does not handle classes yet.
  *
  * @param irg  the graph which should be optimized
+ *
+ * @return non-zero, if at least one entity was replaced
  */
-void scalar_replacement_opt(ir_graph *irg);
+int scalar_replacement_opt(ir_graph *irg);
 
 /** Performs strength reduction for the passed graph. */
 void reduce_strength(ir_graph *irg);
 
 /**
- * Optimizes simple tail-recursion calls by
- * converting them into loops. Depends on the flag opt_tail_recursion.
+ * Optimizes tail-recursion calls by converting them into loops.
+ * Depends on the flag opt_tail_recursion.
+ * Currently supports the following forms:
+ *  - return func();
+ *  - return x + func();
+ *  - return func() - x;
+ *  - return x * func();
+ *  - return -func();
  *
  * Does not work for Calls that use the exception stuff.
  *
@@ -435,9 +452,16 @@ void reduce_strength(ir_graph *irg);
  */
 int opt_tail_rec_irg(ir_graph *irg);
 
-/*
+/**
  * Optimize tail-recursion calls for all IR-Graphs.
- * Depends on the flag opt_tail_recursion.
+ * Can currently handle:
+ * - direct return value, i.e. return func().
+ * - additive return value, i.e. return x +/- func()
+ * - multiplicative return value, i.e. return x * func() or return -func()
+ *
+ * The current implementation must be run before optimize_funccalls(),
+ * because it expects the memory edges pointing to calls, which might be
+ * removed by optimize_funccalls().
  */
 void opt_tail_recursion(void);
 
@@ -505,4 +529,14 @@ void normalize_irg_class_casts(ir_graph *irg, gen_pointer_type_to_func gppt_fct)
  */
 void optimize_class_casts(void);
 
+/**
+ * CLiff Click's combo algorithm from "Combining Analyses, combining Optimizations".
+ *
+ * Does conditional constant propagation, unreachable code elimination and optimistic
+ * global value numbering at once.
+ *
+ * @param irg  the graph to run on
+ */
+void combo(ir_graph *irg);
+
 #endif