Kategorier: Alle - ciencia - técnica - futuro - filosofía

af Pero Gruyo 14 år siden

794

S,S,H

El texto aborda la relación entre la filosofía, la ciencia y la técnica, particularmente en el contexto del siglo XX y los desafíos que estos campos presentan a los filósofos contemporáneos.

S,S,H

SER, SABER, HACER

MARIO BUNGE

SER,SABER, HACER

25 SIGLOS DE FISICA CUÁNTICA

del subjetivismo al realismo

UN QUANTUM, O CUANTO, es una unidad básica, tal como el centavo en el sistema monetario mexicano, la carga eléctrica del electrón y el bit de información. Suele creerse que los cuantos son característicos de la física cuántica, y que ésta nació hace sólo un siglo.

Me propongo refutar ambas afirmaciones. El primero en descubrir cuantos no fue Planck sino Pitágoras, al estudiarlas cuerdas del arpa en el siglo VI antes de la era vulgar. En efecto, Pitágoras descubrió que la frecuencia de una cuerda vibrante es igual a un múltiplo entero de una frecuencia (o armónica) fundamental.

De modo que no es verdad que la principal característica de los cuantones, o referentes de la teoría cuántica, sea que algunas de sus propiedades varíen de a saltos. Lo que les es peculiar es más bien que, salvo excepciones, carecen de valores precisos: son borrosas. Más precisamente, sus valores tienen distribuciones probabilistas. O sea, tienen más de un valor posible, cada cual con cierto peso, o tendencia a ocurrir.

Otra característica de la física cuántica es la atribución de propiedades físicas al vacío electromagnético. Éste es un campo fluctuante de intensidad media nula, pero que ejerce una fuerza sobre los electrones atómicos, causando su decaimiento a niveles energéticos inferiores.

Una tercera peculiaridad de los cuantones es que si alguna vez estuvieron juntos, nunca pierden del todo esta asociación: no son totalmente separables, por más que se distancien espacialmente.

Los cuantones son ciertamente entes extraños al sentido común, pero no son fantasmales y comparten algunas propiedades con los clasones. Una de ellas, y la más importante, es que existen independientemente de la voluntad del observador, de modo que la física cuántica no requiere un cambio de la teoría realista del conocimiento ni de la lógica. Sí requiere, en cambio, una transformación de la ontología, tan profunda como las que exigieron en su tiempo la mecánica newtoniana, la física de campos y la biología evolutiva.

Ortodoxia y heterodoxia
La interpretación ortodoxa o de Copenhague
Materia extraña
Superposición y medición

El «principio» de superposición es el teorema según el cual si dos o más

funciones son soluciones de una ecuación diferencial lineal, entonces

también lo es su combinación lineal. En términos físicos: la

superposición de estados simples (en particular, estacionarios) es un

estado. Este teorema da lugar a ciertas perplejidades. Consideremos una

de ellas: la de si es compatible con la ley (teorema) de conservación de

la energía de un cuantón aislado.

Supongamos que cierto cuantón aislado no está en un estado

estacionario, de modo que no tiene un valor único de la energía.

Supongamos en cambio que tiene todo un conjunto de valores de la

energía, cada cual con su peso (o probabilidad, o tendencia). Para

simplificar, supongamos que sólo dos estados estacionarios

(autoestados) de energía, E1 y E2, contribuyen al estado total, con

probabilidades p1 y p2 respectivamente. En otras palabras, la

distribución de la energía tiene dos picos, uno en E1 y de altura p1 y el otro en E2 y de altura p2. O sea, el espacio de los estados tiene dos ejes,

de modo que la función de estado es un vector con dos componentes.

Según Von Neumann (1932), si se mide la energía del cuantón, la

superposición en cuestión se proyecta sobre el eje 1 del espacio de los

estados con probabilidad p1, 0 sobre el eje 2 con probabilidad p2. En el

primer caso, el experimentador hallará el valor exacto E1, y en el

segundo el valor exacto E2. O sea, antes de la medición, la energía del

cuantón no tenía un único valor preciso, sino dos valores, cada uno con

su peso o probabilidad.

La medición «eligió» uno de ellos: el otro desapareció, y con él la

probabilidad correspondiente. (Analogía clásica: se revolea una

moneda, la que mientras está en el aire está en un estado que es la

superposición de los estados «cara» y «cruz», con pesos iguales; al caer,

queda sólo uno de los dos estados.)

¿Se conservó la energía del cuantón? La teoría contiene un teorema

según el cual la energía de un cuantón aislado permanece constante.

Pero el ejemplo considerado no cumple la condición del teorema, de que

el cuantón tenga una energía precisa. Y mal puede conservarse una

energía que carece de un único valor preciso. Además, la medición

imaginada interfiere con el cuantón, al punto de reducir su función de

estado, lo que infringe la condición de que el cuantón esté aislado. O

sea, es una medición demoledora.

Este ejemplo sugiere que para medir la energía, y en particular poner a

prueba el teorema de conservación de la energía, es preciso preparar

adecuadamente al cuantón en cuestión. Más precisamente, hay que

ponerlo en un estado de energía precisa, tal como el E1 o el E2

considerados hace un rato. Sólo así una medición podrá aseverar si la

energía ha permanecido constante. Pero esta medición tendrá que ser no

invasiva, como la que se hace en espectroscopia óptica. O sea, las

únicas mediciones que consideró Von Neumann, que involucrarían la

reducción instantánea y no causal de la función de estado, no sirven

para poner a prueba los teoremas de conservación (constantes de

movimiento).

La alternativa sería sacrificar los principios de conservación en el altar

de Von Neumann. Pero tal sacrificio no sería grato ni siquiera a los duendes de Copenhague. En efecto, las leyes de conservación se

deducen de fórmulas que representan leyes naturales fundamentales. Si

aquéllas fallaran, también fallarían éstas, y el universo sería totalmente

caótico en el sentido ordinario de la palabra. (En efecto, de B Þ C y ØC

se sigue ØB.)

Clasones y cuantones

Lo que antecede sugiere la siguiente clasificación de los tipos de

materia:

Clasones (p. ej., intenso haz luminoso, molécula de ADN,

célula, roca, planeta)

Cuantones (p. ej., fotón, electrón, átomo, cuerpo negro, anillo

superconductor)

Clasones

Cosas

Cuantones

En rigor, ésta no es una partición exacta, ya que hay cosas intermedias

entre cuantones y clasones, tales como haces luminosos

extremadamente débiles y moléculas de tamaño intermedio, como la del

carbono 60. Suele llamárselas objetos mesoscópicos; también podemos

llamarlos semicuantones, o semiclasones. Las cosas de este tipo son

descritas por teorías semiclásicas (o semicuánticas).

Una característica de las teorías semiclásicas es que permiten construir

imágenes. Por ejemplo, la trayectoria del electrón exterior de un átomo

en un estado altamente excitado, o de Rydberg, puede imaginarse de dos

maneras diferentes: ya como una órbita microplanetaria, ya como una

onda estacionaria circular con un número de crestas igual al número

cuántico principal.

Además de semiclasones (o semicuantones), hay cosas concretas o

materiales, tales como organismos y sistemas sociales, que escapan a la

física cuántica, mal que les pese a quienes creen que esta teoría es

universal. Esas cosas escapan a ella no porque sean grandes, sino

porque tienen propiedades suprafísicas, tales como la de estar vivo y la

de regirse por normas que no derivan de leyes físicas.

Cuantificación moderna
Variables clásicas y cuánticas

La teoría cuántica moderna fue construida por De Broglie, Heisenberg,

Born, Jordan, Schrödinger, Dirac y unos pocos más entre 1924 y 1930.

Esta teoría conserva los conceptos clásicos de espacio, tiempo, masa y

carga eléctrica. En cambio, una de sus características es que carece de

los conceptos clásicos de posición y momento lineal precisos, por lo

cual tampoco retiene los conceptos clásicos de momento angular ni de

energía. En lugar de éstos figuran operadores que actúan sobre la

famosa función de estado Y formalmente parecida a la que en física

clásica representa una onda, por lo cual también suele llamársela

función de onda.

Este parecido formal sugirió al principio que la materia es ondulatoria:

se habló de ondas materiales. En 1927, Davisson y Germer

comprobaron experimentalmente que esto es efectivamente así en

ciertas condiciones. Pero en otras condiciones sobresale el aspecto

corpuscular. De modo que desde entonces se habla de la dualidad ondacorpúsculo.

Esta dualidad es evidente en la ecuación p = h/l debida a

De Broglie. No es menos evidente en el microscopio electrónico (1933), donde los electrones son disparados como balas y terminan

difractándose como ondas. Aquello que describe la mecánica cuántica

no es, pues, ni corpúsculo ni onda. Es algo sui generis, que yo llamo

cuantón (quanton en inglés).

La dualidad onda-corpúsculo también se manifiesta en la desigualdad de

Heisenberg, mal llamada relación de indeterminación (o de

incertidumbre). Según ésta, la posición y el momento lineal tienen

distribuciones cuyas varianzas (o dispersiones cuadráticas medias) son

inversamente proporcionales la una a la otra: Dx.Dp ³ h/4p. O sea,

cuanto más precisa es la posición (Dx pequeña), tanto menos preciso es

el momento lineal (Dp grande). Si el cuantón está muy bien localizado,

carece de una velocidad precisa; y si tiene una velocidad precisa, no está

bien localizado. Por ejemplo, si se encierra un cuantón en una caja, llega

a ocuparla íntegramente: carece de forma propia.

El momento angular x ´ p es acaso aun más extraño. En efecto, si una

de sus componentes tiene un valor preciso, las otras dos son totalmente

borrosas. Por consiguiente, el momento angular no es un vector (o

tensor) propiamente dicho. Tampoco lo son el spin ni la velocidad en la

mecánica cuántica relativista. Las flechas cuánticas son tan borrosas en

ancho y en dirección, que no se parecen a flechas.

Cuantificación de la energía

Cuantificación de la energía: Planck, Einstein y Bohr

En 1900, Planck postuló que los cuerpos negros, tales como los hornos de microondas, no emiten ni absorben energía en cantidades

cualesquiera, sino por gotas. Más precisamente, la cantidad de energía

radiante de frecuencia n es un múltiplo entero de la cantidad básica de energía hn, donde h = 6.626.10-27erg.seg designa la famosa constante de Planck. Una característica de esta constante es su extrema pequeñez.

Otra es su universalidad: su valor no depende de la clase de materia.

Cinco años después, Einstein fue mucho más allá (para consternación de Planck). Postuló que todo haz electromagnético de frecuencia n, esté o no encerrado en una cavidad, tiene una energía igual a un múltiplo entero de hn, o sea, E = nhn. En otras palabras, un haz de radiación está compuesto por un número entero de fotones, o unidades del campo

electromagnético. (Esto sólo vale para la radiación: no vale para los campos electrostáticos ni magnetostáticos.)

Es más, el fotón se parece a una partícula, en

que posee un momento (igual a hn/c), como lo confirmó el efecto Compton (1923). Pero un haz de luz visible, de un ergio de energía, está compuesto por cerca de un trillón de fotones. No es de asombrar entonces que satisfaga las ecuaciones clásicas de Maxwell. La electrodinámica cuántica sólo hace falta para fotones y haces luminosos extremadamente débiles.

En 1911 Ernest Rutherford explicó los resultados de sus experimentos sobre la dispersión de electrones por átomos, imaginando que éstos están constituidos por un núcleo duro cargado positivamente, rodeado de electrones. Dos años después, Bohr se propuso matematizar este modelo y unirlo con las ideas de Planck y Enstein sobre la luz.

Comprendió que, para lograrlo, tenía que agregar el postulado de que los estados estacionarios de un átomo constituyen un conjunto enumerable. Cada uno de estos estados estaría caracterizado por un número entero positivo, y correspondería a una órbita o trayectoria cerrada de un electrón en torno al núcleo.

Dicho en jerga técnica, Bohr postuló que en un átomo la acción (energía ´ tiempo) está cuantificada: que es un múltiplo entero de la constante de Planck h. Esto implica que cualquier transición entre dos estados estables es discontinua: es un salto cuántico, en que el átomo gana o pierde la cantidad hn de energía, según que absorba o emita un fotón de la misma energía.

Dicho sea de paso, obsérvese que la expresión «salto cuántico» se ha incorporado al lenguaje ordinario.

El modelo microplanetario de Rutherford-Bohr fue inicialmente tan exitoso, y se hizo tan popular, que sigue siendo el logo de la física

moderna, pese a haber sido superado hace setenta y cinco años. En efecto, ese modelo no es cuántico sino a medias, porque conserva las ideas clásicas de trayectoria, forma y tamaño precisos. Estas características se esfuman en la mecánica cuántica, aunque reaparecen gradualmente en el caso de los átomos pesados. En otras palabras, las

propiedades geométricas de la materia no son fundamentales, sino que van emergiendo a medida que e] sistema se complica.

Cuantificación clásica
Cuantificación de la carga eléctrica

Cuantificación de la carga eléctrica: de Faraday a Millikan

Al estudiar experimentalmente la electrólisis, Michael Faraday

descubrió en 1833 que el efecto químico de una corriente electrolítica

―o sea, la cantidad de materia depositada en un electrodo― es

proporcional a la cantidad de electricidad que pasa. A su vez, vista a la

luz de la teoría atómica de Dalton, se ve que esa cantidad es un múltiplo

entero de cierta carga básica o elemental. O sea, la carga eléctrica está

cuantificada. En 1911, Millikan descubrió que la unidad de carga

eléctrica es la carga del electrón. Dicho de manera negativa: no hay

electrones con carga fraccionaria.

Esto es tan sorprendente como lo sería el descubrimiento de que

también hay una unidad natural de masa, de modo tal que la masa de

cualquier partícula o cuerpo sería un múltiplo entero de la masa de

alguna partícula elemental. No menos sorprendente es que la teoría

cuántica aún no contenga un operador cuyos valores posibles sean

múltiplos enteros de la carga del electrón. Éste es uno de los agujeros a

rellenar. Si fuéramos buenos pitagóricos, construiríamos una teoría

cuántica del campo eléctrico en la que la carga del electrón aparecería

como el cuanto de electricidad.

Cuantificación de la frecuencia

Cuantificación de la frecuencia: de Pitágoras a D'Alembert y Fourier

Es sabido que las enseñanzas de Pitágoras y sus discípulos son una

mezcla de oro y lodo: de ciencia y mística. Una de las pepitas áureas de

Pitágoras es su descubrimiento de que las frecuencias posibles de una

cuerda vibrante son múltiplos enteros de una frecuencia o armónica

fundamental, que depende del material y de la tensión de la cuerda. O

sea, las frecuencias posibles de una cuerda vibrante son n, 2n, 3n, ..., nn.

Las membranas y los sólidos vibrantes tienen propiedades parecidas. En

todos estos casos, el mecanismo es el siguiente. En una cuerda (o membrana

o sólido) sujeta en sus extremos sólo cabe un número entero de

semiondas estacionarias.

En resumen, Pitágoras descubrió la cuantificación de las frecuencias de

oscilación de los cuerpos elásticos. Importa subrayarlo para destronar el

mito de que sólo objetos microfísicos exóticos tienen propiedades

cuánticas. También las tienen los violines, tambores, cristales, vigas,

puentes, y muchas otras cosas de gran tamaño comparado con los

átomos.

El primero en construir un modelo matemático de un cuerpo vibrante

fue D'Alembert (1747), el gran matemático y físico que, junto con

Diderot, dirigió la famosa Enciclopedia. Dos siglos después, la ecuación

que lleva su nombre sigue siendo una de las ecuaciones centrales de la

física. Gracias a D'Alembert sabemos también que al rasgar una cuerda

de violín con un arco se la puede hacer vibrar con una oscilación igual a

la suma de vibraciones de numerosas frecuencias y amplitudes.

Con la luz sucede algo similar: las ondas luminosas monocromáticas

son excepcionales: en general son sumas de ondas de frecuencias y amplitudes diferentes. El caso de la luz blanca es extremo: está

compuesta por ondas luminosas de todas las frecuencias capaces de

estimular la retina. Éstos son ejemplos del llamado principio de

superposición, que en realidad es un teorema y que también suele

creerse, erróneamente, exclusivo de la teoría cuántica.

Si se incluyen todas las frecuencias posibles, la suma de las ondas en

cuestión es una serie armónica o de Fourier, quien la inventó en 1822.

De hecho, casi cualquier función o curva, oscilación u onda, puede

analizarse como una serie (o una integral) de Fourier. Cada uno de los

términos de ésta representa una onda estacionaria o vibración elemental,

con una frecuencia que es un múltiplo entero de la frecuencia

fundamental. Fourier culminó pues un proceso de invenciones y

descubrimientos que empezó Pitágoras y retomó D'Alembert dos

milenios después. Estos son ejemplos de lo que puede llamarse la ley de

Merton (1968): Todo descubrimiento o invención tiene algún precursor.

A su vez, esta ley ejemplifica la de Lucrecio: Nada sale de la nada.

LA FILOSOFIA PRACTICA COMO TECNICA

Apéndice

Análisis del concepto de magnitud física

El gran físico experimental P. W. Bridgman propuso explícitamente la

difundida tesis operacionista en 1927. Según ésta, los conceptos físicos

se definen por operaciones de medición. Por ejemplo, la regla graduada

definiría el concepto de longitud, el reloj el de tiempo, y la balanza el de

peso. Los filósofos positivistas, en particular Rudolf Carnap y Hans

Reichenbach, adoptaron, elaboraron y difundieron esta tesis, que aún se

encuentra en manuales científicos y en escritos filosóficos.

La tesis operacionista es falsa por varias razones. La primera es que una

definición propiamente dicha es una operación puramente conceptual (si

es explícita, es una identidad; si es implícita, es un sistema de

postulados). La segunda razón es que no todas las magnitudes físicas

son medibles: baste pensar en fases, potenciales y hamiltonianos. La

tercera es que las magnitudes medibles suelen serlo mediante técnicas y

aparatos diferentes. De modo que habría que hablar, por ejemplo, de

tantos conceptos de masa como de técnicas de medición de la masa. (De

hecho, algunos lo han hecho así, introduciendo el seudoconcepto de

masa gravitatoria, que sería diferente de la inercial por medirse

mediante balanzas. Pero ocurre que ninguna teoría física distingue

ambas masas.) La cuarta razón es que, antes de diseñar una técnica de

medición de una magnitud, es necesario saber de qué magnitud se trata,

y sólo una teoría puede decirnos esto. La quinta razón es que los físicos

teóricos, que son los encargados de introducir o refinar nuevas

magnitudes, no proceden conforme a la receta operacionista. Veamos

cómo proceden de hecho.

Toda magnitud física se define, explícita o implícitamente, en alguna

teoría o familia de teorías. Por ejemplo, en mecánica de los medios

continuos, la densidad de masa se introduce como concepto primitivo

mediante un par de postulados, uno de los cuales es la ecuación general

del movimiento. A su vez, el concepto de masa total se define como la

integral de la densidad de masa sobre todo el volumen del cuerpo. En

cambio, en la mecánica de las partículas puntiformes, el concepto de

masa total es básico (no definido).

El que una propiedad sea un concepto básico o primitivo en alguna

teoría no implica que sea inanalizable. Tomemos nuevamente como

ejemplo el concepto sencillo de masa que figura en mecánica clásica de

partículas. Denote M(p, t, u) = m el valor teórico de la masa de una

partícula p en un instante t, y calculado o medido en la unidad de masa

m. Esto muestra que la propiedad masa es conceptualizada por la

función

Mc: P ´ T ´ U ® R+

donde ´ designa el producto cartesiano de los conjuntos P de partículas,

T de instantes, U de unidades de masa, y R+ de números reales

positivos. La masa relativista se analiza en cambio como la función

Mr: P ´ F ´ T ´ U ® R+

donde F es el conjunto de todos los sistemas de referencia posibles.

Éstas son las funciones que representan la propiedad masa en las

mecánicas clásica y relativista, respectivamente, del punto material. Se

ve que, contra lo que afirmaron Thomas S. Kuhn y Paul K. Feyerabend,

esos conceptos son «conmensurables» entre sí, o sea, comparables. En

efecto, Mc es un caso particular (una proyección) de Mr.

Obsérvese también que en ambas funciones figura el concepto de

unidad, ausente de las elucidaciones estructuralistas. Además, ni Mc ni

Mr hacen referencia a operaciones de medición. Sería absurdo atar una

teoría a un procedimiento determinado de medición.

Hasta aquí, dos conceptos teóricos de masa. El concepto de masa que se

usa en un laboratorio físico es éste:

mt(p, f, t, u) = m' ± e

donde mt y e denotan la técnica de medición y el error relativo,

respectivamente. La expresión anterior puede leerse así: el valor medido

con la técnica t de la masa de p, relativa al referencial f, al tiempo t, en

la unidad u, es igual a m', a menos del error e.

Obsérvese que este concepto de valor medido incluye el concepto

teórico «masa de p». Además, mientras que el valor teórico suele ser un

número, el empírico suele ser un intervalo numérico [m' - e, m' + e].

Con refinadísima instrumentación y mucha suerte, el valor teórico m

coincidirá con el valor medio m' de una sucesión de mediciones. Pero en

general ambos valores serán diferentes. También suelen diferir los

valores que se obtienen usando técnicas de medición diferentes. En

resumen, los conceptos teórico y empírico son diferentes, y el segundo

presupone al primero.

Otra diferencia importante entre las dos familias de conceptos se deriva

de la diferencia entre magnitudes extensivas, como la longitud total, y

magnitudes intensivas, como la densidad de masa. Una magnitud es

extensiva si su valor para la suma física o yuxtaposición a° b de dos

cosas a y b del mismo género es igual a la suma de los valores parciales:

M(a° b) = M(a) + M(b). (En la mecánica relativista, la masa es

levemente subaditiva, ya que hay que restar el defecto de masa, o masa

correspondiente a la energía de combinación.)

En física teórica, las magnitudes intensivas suelen ser las más

importantes, por ser primitivas (no definidas), en tanto que sólo las

extensivas son medibles. Por ejemplo, la densidad de un fluido en un

punto no puede medirse: se mide la masa de un pequeño volumen de

fluido, y se la divide por este volumen para obtener la densidad media

en ese volumen. Análogamente, no se puede medir la temperatura de un

cuerpo en un punto de éste: lo que, se mide es la temperatura global del

sistema compuesto por el cuerpo, o parte de él, y el termómetro, una vez

alcanzado el equilibrio térmico entre los dos.

A propósito, los operacionistas sostienen que los cuerpos que no están

en equilibrio térmico carecen de temperatura, que es como decir que el

balancín no existe cuando está en movimiento. Esto los fuerza a ignorar

la termodinámica y a ocuparse exclusivamente de la termostática. Lo

que a su vez muestra que una filosofía falsa de la ciencia puede

constituir un obstáculo al avance de la investigación científica.

En resumen, ninguna teoría física admite la receta operacionista para la

formación de conceptos físicos. Todas las magnitudes que figuran en las

teorías clásicas son funciones de la forma M: A ´ B ´ ... ´ N ® Cn

donde C designa, en general, el conjunto de los números complejos, y n

es un número natural mayor que 0. En física cuántica, algunas variables,

tales como el momento, la energía y el spin, no son funciones sino

operadores definidos en espacios funcionales. Pero las densidades de

estos operadores, o sea, las formas del tipo y*Opy son magnitudes

propiamente dichas. Además, ninguna variable dinámica (mal llamada

«observable») se «define» en términos de operaciones empíricas. Si así

se hiciera, las teorías serían paquetes de datos, y no tendría caso

contrastar valores calculados con valores medidos. lo interesante es

compararlos, no intentar reducir los unos a los otros.

Conclusión

En este trabajo he argüido que hay por lo menos cinco ramas de la

filosofía que, al igual que la ingeniería electrónica y la macroeconomía

normativa, satisfacen la definición de «técnica» como «la ciencia de lo

artificial» [véase H. Simon, «The Sciences of the Artificial»]. Esto nos

ha llevado naturalmente a evocar la sociotécnica, o técnica de la gestión

racional de los sistemas sociales, y la problemática ética que ella

plantea. Todo lo cual es una manera de bajar a la filosofía de las nubes

donde la había ubicado Aristófanes en su famosa comedia.

Filosofía social
La sociedad ideal

Es claro que, por definición, una sociedad ideal no es real sino utópica.

Pero también parece obvio que muchas sociedades reales se han estado

acercando, aunque con retrocesos momentáneos, a una sociedad ideal.

Baste pensar en los países escandinavos, Holanda, Bélgica, Francia, Italia, Japón, e incluso Estados Unidos (sobre todo en contraste con

América Latina).

Me apresuro a advertir que no creo que pueda haber un proyecto único

de sociedad ideal. No puede haberlo porque las distintas sociedades

tienen tradiciones y recursos diferentes, y sus miembros no tienen todos

las mismas aspiraciones y posibilidades. Así, por ejemplo, mientras los

norteamericanos suelen ser individualistas y dados a experimentar

nuevas formas de socialidad, los europeos suelen ser tradicionalistas y

valoran más la solidaridad, la cohesión, el bien común y la acción

estatal.

Sugiero que las características principales de una sociedad ideal son las

seis siguientes: igualdad calificada, libertad compatible con los

derechos ajenos, solidaridad tanto espontánea como organizada,

moralidad no dogmática, autogestión en todas las unidades sociales e

idoneidad en la gestión social [para detalles, véanse M. Bunge, Treatise

on Basic Philosophy, vol. 8: Ethics, y Las ciencias sociales en

discusión].

Finalmente, sugiero que la anomia es un indicador fidedigno del grado

en que una sociedad se aparta de la sociedad que sueña cada cual. La

anomia que siente un individuo puede definirse como la discrepancia

entre sus aspiraciones A y sus realizaciones R:

a = │A \ R │

Entiendo por sociedad ideal la que es justa y sostenible, por proteger los

derechos básicos y los deberes concomitantes, por estimular el progreso

en la calidad de vida, gobernarse a sí misma y ser cohesiva. Dicho en

forma negativa: en una sociedad ideal no hay privilegio injustificado,

explotación, opresión, discriminación sexual o étnica, censura

ideológica ni estancamiento.

La anomia media de un grupo social será entonces la sumatoria de las

anomias individuales dividida por la población N del grupo. El

complemento de este número a la unidad podrá tomarse como el grado

de satisfacción del grupo en cuestión:

S = 1- (1 / N)Siai

Presumiblemente, la sociedad sueca está mucho más satisfecha que la

argentina. Sin embargo, la presunción no basta: hacen falta datos.

Ejemplo: la distribución óptima

Uno de los problemas más difíciles e importantes de la filosofía social

es el de escoger la distribución óptima de bienes y cargas sociales. Es

dogma, tanto en economía como en ética, que la distribución más

adecuada es la optimalidad de Pareto. Empezaré por intentar demostrar

que no lo es, y luego propondré una alternativa.

Según Pareto, el estado óptimo de una sociedad, así como la eficiencia

de una economía, es aquel en el cual nadie puede mejorar su posición

sin que otro(s) la empeoren. Dicho de otro modo: mi ganancia equivale

a tu pérdida. Si se prefiere, el «Juego» social óptimo es el de suma

constante.

Irónicamente, este principio no individualiza ninguna distribución

particular, porque es satisfecho por todas las distribuciones, tanto

equitativas como inequitativas. En efecto, considérese una sociedad

imaginaria que consta de dos individuos, entre los que debe distribuirse

una cantidad C dada de bienes. Llamando A a lo que le toca a uno de los

individuos, y B a lo que le toca al otro, el principio establece que A + B

= C. Pero esta ecuación (diofántica) tiene una infinidad de soluciones.

Por ejemplo, la satisfacen A = B = 1/2, tanto como A =1/10 y B = 9/10.

Sugiero que el problema está mal planteado, porque en una sociedad

real no se trata de repartir sólo bienes, sino también cargas. Dicho de

otro modo, tenemos tanto derechos como deberes, como se recordó en

la sección «Ética». También sugiero que la distribución óptima de

bienes y cargas es aquella en que ambos son iguales. O sea, aquella en

que lo que me toca equivale a lo que doy. Pongamos esto en términos

matemáticos elementales.

Lo que doy es trabajo (w), tanto remunerado como doméstico, así como

trabajo voluntario (v) por el bien común. O sea,

d = w + v [1]

En una sociedad solidaria, lo que recibo es una cantidad básica b, el

mínimo vital, que incluye los servicios sociales gratuitos a los que tengo

acceso, más una fracción c del valor w de mi trabajo remunerado:

r = b + cw [2]

Postulemos ahora que el estado social óptimo es aquel en que cada cual

recibe tanto como lo que da. O sea,

r = d [3]

Sustituyendo [1] y [2] en [3], se deduce

c = 1 + (v - b)/ w cuando w ¹ 0 [4]

Cuando w = 0, la condición [3] implica que r = b = v. O sea, quienes no

están empleados se ganan el mínimo vital actuando en el voluntariado.

Sugiero que esta solución es moral y socialmente superior a la regla

paulina «Quien no trabaja no come», que es cruel en tiempos de

desocupación involuntaria.

Esta solución del problema del reparto plantea a su vez otros dos

problemas conceptuales, además del problema político de ver quiénes le

pondrán el cascabel al gato. Uno es decidir si el coeficiente c debería o

no ser igual para todas las ocupaciones. Otro problema es asegurar que

la sumatoria de los r para todos los miembros activos de la economía

baste para cubrir tanto los gastos sociales como los salarios mínimos

vitales. Pero habrá que dejar estos problemas para otra ocasión.

Sociotécnicas y filosofía

Las ciencias sociales básicas, tales como la sociología, la economía y la politología, estudian científicamente hechos sociales. Otro tanto vale para las ciencias biosociales básicas, tales como la demografía, la antropología y la geografía. En cambio, las sociotécnicas estudian maneras de intervenir en lo social, ya para enderezar entuertos tales como la discriminación racial, ya para rediseñar instituciones caducas, ora para enderezar la conducta individual, ora para mejorar el bienestar o asegurar la paz. El derecho, la macroeconomía normativa, el urbanismo, la epidemiología normativa y la didáctica son otras tantas sociotécnicas [véase M. Bunge, Las ciencias sociales en discusión].

Las diferencias entre las técnicas sociales y las ciencias básicas subyacentes son obvias: las primeras diseñan políticas y planes de acción sobre la base de conocimientos suministrados por la investigación básica. Por ejemplo, un gobierno responsable elaborará su presupuesto no sólo en función de sus ingresos y planes, sino también de proyecciones demográficas y económicas. Y planeará hospitales y campañas de vacunación conformes a datos y proyecciones epidemiológicos.

Todo esto parece obvio, pero no es ampliamente conocido. Por ejemplo,

la mayoría de los juristas y legisladores no creen que deban enterarse de asuntos tales como la relación directa entre productividad y salario, o entre delincuencia y desocupación, ni de la relación inversa entre fertilidad y nivel de vida, o entre inversión extranjera e inestabilidad política. Para peor, es sabido que en todos los países avanzados hay programas sociales que se solapan o compiten entre sí, y que pocas veces se sabe qué resultado han tenido. En su mayoría, esos programas fueron improvisados al calor de campañas electorales. Son casos de artesanía política antes que de ingeniería social.

Lo mismo o peor vale para la mayoría de los planes de privatización de las industrias estatales concebidos y puestos en práctica en los países ex comunistas. Salvo excepciones (Alemania Oriental, Polonia, Eslovenia y parcialmente Cuba), han aumentado tanto la pobreza como las diferencias sociales. El fracaso de la mayoría de las privatizaciones se debe en parte a que fueron improvisadas y a menudo corruptas.

También se debe en parte a la creencia de los planeadores, de que el capitalismo es el orden social natural, de modo que su implantación no requeriría una enérgica intervención estatal (contra lo que enseña la historia de los países industrializados).

Estos fracasos sugieren reforzar la conexión de las socio-técnicas con las ciencias sociales subyacentes, y que se examinen más a fondo los conceptos praxiológicos y técnicos clave de artefacto, plan, diseño, eficacia, proyecto piloto, experimentación social y evaluación. También sugieren que un programa social no puede ser eficaz a menos que cuente con apoyo de la opinión pública, para lo cual ésta debe estar persuadida de que el programa en cuestión es de utilidad pública, o sea, está dirigido a beneficiar a la mayoría. En otras palabras, un artefacto social debería diseñarse no sólo a la luz de los conocimientos pertinentes, sino

también de normas morales.

Baste esto, por el momento, como argumento en favor de la intensificación de los estudios de filosofía de la sociotécnica [para más, véase M. Bunge, Las ciencias sociales en discusión].

Metodología
Formalismo matemático e interpretación fáctica

La escuela epistemológica llamada estructuralista (o semántica) se

ocupa de los formalismos matemáticos de unas pocas teorías científicas

elementales, pero no atiende a sus significados fácticos. Por

consiguiente, trata de igual modo a una fórmula tal como «p.v = const»,

que aparece tanto en física como en economía, aunque con significados

totalmente diferentes (presión-volumen y precio-cantidad,

respectivamente). O sea, la escuela semántica elude la semántica de la

ciencia.

Ocurre que la elude porque confunde dos conceptos totalmente

diferentes de modelo científico: el que trata la semántica matemática (o

teoría de modelos, que hoy es parte de la lógica), y el que se utiliza en

las ciencias y técnicas de la realidad. En la primera, un modelo de una

teoría abstracta no es sino un ejemplo de ella, como lo afirmó

claramente Tarski en sus artículos fundacionales. Por ejemplo, el

conjunto de los números enteros junto con la operación de suma es un

modelo o ejemplo de la teoría de semigrupos, y el conjunto de las rotaciones en un plano en torno a un punto fijo de éste es un modelo o

ejemplo de la teoría de grupos.

En cambio, en las ciencias y técnicas fácticas se entiende por «modelo

teórico» una teoría específica (por oposición a genérica) interpretada en

términos fácticos. Braithwaite [Scientific Explanation] tuvo la buena

idea de bautizaría con el nombre español «teorita». Ejemplos: una teoría

(modelo teórico) del oscilador lineal, de la síntesis del agua, de una red

social o de un mercado en equilibrio. Tales modelos, a diferencia de los

que trata la teoría de modelos, son representaciones más o menos

adecuadas (verdaderas) de cosas concretas o de procesos en ellas. Las

cosas concretas o materiales y sus cambios son los referentes de las

teorías fácticas, a diferencia de las teorías de la matemática pura, que no

se ocupan de la realidad.

Examinemos brevemente el modelo estándar y elemental del péndulo

simple. En este caso se parte de una teoría general (por ejemplo, la

mecánica) G y se la enriquece con un conjunto S de suposiciones

semánticas, un conjunto A de hipótesis auxiliares que delinean el

referente (por ejemplo, el péndulo simple) y un conjunto D de datos (o

de suposiciones empíricas), tales como los valores iniciales de la

posición y velocidad. La unión de estas hipótesis y datos implica

lógicamente las consecuencias (teoremas) que se buscan, tales como la

fórmula para la amplitud angular de las oscilaciones, o sea, a(t) = a0cos

wt, donde w = 2p/T = (g/L)½. En resumen, G È S È A È D t. En

otros casos, sobre todo en biología y ciencias sociales, las teorías

generales escasean, de modo que los modelos teóricos suelen

construirse sin su ayuda. [Para la diferencia entre modelo ligado a una

teoría general y modelo libre, véase Bunge, Treatise on Basic

Philosophy, vol. 5: Epistemology and Methodology, I].

En el caso del péndulo simple, la unión de G y A implica la ecuación

básica a resolver:

d a

dt

v a

2

2

+ 2 = 0

Esta fórmula se deduce de la segunda ley de Newton aplicada al

péndulo y haciendo la hipótesis auxiliar de que su amplitud angular a es

pequeña, de modo que sena puede aproximarse por a.

Las hipótesis semánticas o interpretativas incluidas en 5 son, siempre en

el caso del péndulo:

Int (t) = instante

Int (a(t)) = amplitud angular del péndulo en el instante t.

Int (g) = aceleración de la gravedad en el lugar del péndulo

Int (L) = longitud del péndulo

Sin estas interpretaciones, el formalismo matemático no se refiere a

nada real: no es un modelo de un péndulo. Y todas las hipótesis

semánticas precedentes, salvo la primera, adjudican una propiedad física

del péndulo a cada predicado. (En el caso de un referente distinto, la

correspondencia predicado-propiedad puede cambiar. Por ejemplo, si el

referente es un oscilador lineal, entonces w = (k/m)½, donde k denota la

constante elástica y m la masa del oscilador.) Las demás hipótesis

semánticas que intervienen en el modelo teórico derivan de las

anteriores. Entre ellas figuran prominentemente las siguientes:

Int (da /dt) = velocidad angular

Int (d2a /dt2) = aceleración angular

Int (w) = frecuencia circular

mt (a0) = ángulo inicial

En lo que antecede se ha presupuesto que el sistema de referencia es el

ligado al cuerpo del que pende el péndulo, y se ha respetado la regla de

homogeneidad dimensional. En una presentación axiomática hay que

enunciar explícitamente esa hipótesis, y hay que aclarar cuáles son las

dimensiones de las magnitudes básicas o primitivas (para un análisis de

éstas véase el apéndice de este capítulo). Nada de esto se dice en los

escritos de la escuela llamada estructuralista, los que tampoco nos dicen

de qué cosas reales tratan. Por ejemplo, hablan de estados termodinámicos

en sí mismos, y no de estados de cosas materiales, como

se hace en las ciencias. (El estado de una cosa en un instante dado queda

caracterizado por el valor instantáneo de la función de estado

característica de la teoría.) Para peor, sólo tratan teorías clásicas simples

y muy restringidas: nunca se animan con las teorías contemporáneas que plantean las mayores perplejidades y suscitan las controversias

filosóficas más intensas.

En resumen, la reconstrucción racional (o axiomatización) de una teoría

científica debe a) respetar la teoría tal como es usada en la práctica y b)

hacer explícitas las hipótesis semánticas que sugieren la formulación

heurística y los ejemplos estándar [véanse M. Bunge Foundations of

Physics; Treatise on Basic Phylosophy, vol. 1: Sense and Reference, y

vol. 2: Interpretation and Truth, y M. Mahner y M. Bunge, Foundations

of Biophilosophy].

Ejemplo: diagnóstico médico

Uno de los problemas metodológicos más peliagudos, y de mayor

importancia práctica, es el de la naturaleza del diagnóstico médico.

Quien se ocupe de él empezará por aprender que a menudo es difícil e

incierto aun cuando es efectuado por un profesional competente. Esto es

así al punto de que aproximadamente la mitad de los muchos millones

de diagnósticos médicos que se hacen anualmente en Estados Unidos

son falsos, con las consiguientes pérdidas de salud, dinero y tiempo.

¿A qué se debe esta incertidumbre? Creo que se debe principalmente a

tres motivos. Uno de ellos es que la medicina científica, entendida como

biotécnica, tiene menos de dos siglos, y

sólo uno de actuación eficaz fundada sobre la biología humana, la

bioquímica y la farmacología. En efecto, hasta mediados del siglo xx

sólo la cirugía, las vacunas, la fisioterapia y la quinina eran eficaces.

El segundo motivo de la dificultad del diagnóstico médico es que el

cuerpo humano es un sistema complicadísimo (lo mismo vale, mutatis

mutandis, para el diagnóstico de los males sociales). Tanto es así, que

los síntomas que ve el clínico (en el caso particular de las dolencias

sintomáticas) pueden ser efectos de causas remotas. Por ejemplo, la

causa primera de un cáncer en un órgano puede ser un virus cancerígeno

que ha atacado a otro órgano debido a un fallo de un componente del

sistema inmunológico, de modo que el tumor observado es una metástasis

del original, por lo cual su escisión no hará sino complicar el

problema. En este caso, la cadena causal en cuestión es de la forma C1

® C2 ® E, donde sólo C2 y E han sido observados.

Tercero, y en consecuencia, el clínico, a diferencia del experimentador

biomédico, suele abordar problemas del tipo: Dado un síndrome,

adivinar sus causas factibles. Éste es un problema de tipo inverso y,

como tal, rara vez tiene una solución única: habitualmente las

soluciones son múltiples porque también lo son las causas posibles.

Dicho brevemente, un problema biomédico directo es del tipo: Dadas C

® E y C, encontrar E, donde ® simboliza la relación causal. Por

ejemplo: encontrar en qué afecta a la conducta la ingestión de un

fármaco psicotrópico suministrado en una dosis dada.

En cambio, un problema biomédico inverso suele ser del tipo siguiente:

Dados el dato clínico E y las hipótesis causales plausibles C1 ® E, C2 ®

E, ... , Cn ® E, encuéntrese la i-ésima causa que ha obrado.

También los problemas típicos de la técnica son inversos. Más

precisamente, son de la forma: Dada una función deseada, encontrar un

mecanismo eficiente para realizarla. Ejemplo farmacológico: diseñar

una molécula que inhiba al gen que inhibe la proliferación de una célula

de tipo dado (problema en vías de solución). Ejemplo de bioingeniería:

diseñar una endoprótesis electrónica que conecte un centro motor del

neocórtex con un servomecanismo que accione un lápiz, a fin de que un

cuadraplégico pueda escribir (problema ya resuelto, gracias en parte a

que los bioingenieros no creen en el alma inmaterial).

A propósito, en matemática un problema inverso puede carecer de

solución. No ocurre así en las ciencias fácticas y en las técnicas, debido

a que en ellas, a diferencia de la matemática, que ignora la causalidad,

se supone que no hay efecto sin causa(s).

El hecho de que la mayoría de los problemas diagnósticos sean inversos,

en los que interviene una multiplicidad de hipótesis plausibles, muestra

la insuficiencia del empirismo médico y la correspondiente necesidad de

imaginar y contrastar hipótesis alternativas con ayuda de pruebas

múltiples [véase M. Bunge, Scientific Research]. Esta regla

metodológica se funda sobre las siguientes suposiciones: a) el cuerpo

humano es un supersistema muy complejo (dato ontológico); b) el

examen clínico sólo suele revelar manifestaciones de procesos invisibles

a simple vista (dato gnoseológico), y c) a su vez, estos síntomas perceptibles pueden ser los últimos eslabones de una cadena causal

originada en niveles inferiores (intercelular, celular, o incluso

molecular).

La adopción del método científico, y el consiguiente abandono del

empirismo, explica el éxito sensacional de la medicina en el curso del

último siglo. Sin embargo, a los estudiantes suele enseñárseles la

metodología hipocrática. Y en las facultades de medicina suele haber

bioéticos, pero no metodólogos. Los costos de esta deficiencia en la

formación del médico son incalculables.

Gnoseologías descriptivas y prescriptivas

Se ha puesto de moda reprochar a los filósofos de la ciencia que en

lugar de describir cómo obran de hecho los científicos, prescriban reglas

metodológicas ideales. Este reproche se justifica sólo cuando quien

pretende prescribir no sabe ni siquiera describir correctamente.

Alguien tiene que ocuparse de las estrategias generales óptimas, es

decir, de la metodología o estudio de los métodos más generales y

exitosos en las diversas ramas de la investigación. Sin embargo, es

verdad que para que una regla sea eficaz deberá basarse en

generalidades adecuadas (verdaderas) acerca del proceso de

investigación. En resumen, la gnoseología prescriptiva, o metodología,

o praxiología cognoscitiva, debería basarse en la gnoseología

descriptiva. Sólo así podrá ayudar a debatir o aun resolver algunos de

los problemas científicos y técnicos de actualidad, en lugar de limitarse

a hacer comentarios históricos.

Consideremos brevemente, por ejemplo, la controversia sobre la

heredabilidad de la inteligencia, que desató Francis Galton en 1869. Es

sabido que el debate entre hereditaristas y ambientalistas prosigue hoy

día, y que suscita pasiones morales y políticas. Sin embargo, ninguno de

los epistemólogos de moda ha contribuido a resolverlo. En particular,

ninguno de ellos ha analizado la manera en que suelen definirse los

conceptos de heredabilidad y de inteligencia, ni ha examinado

críticamente el método al que más recurren los debatientes de ambos

lados, a saber, el análisis de varianza.

Algunos científicos, en cambio, han hecho contribuciones importantes

al tratamiento de estos problemas metodológicos. En particular, Oskar

Kempthorne, experto en estadística genética, ha criticado el uso

exclusivo de datos observacionales en este debate [véase «Logical,

epistemological and statistical aspects. ..»], pese a saberse, desde

comienzos de la ciencia moderna, que sólo la experimentación puede

poner a prueba hipótesis causales rivales.

Kempthorne y luego Albert Jacquard [«Heritability»] también han

criticado el uso del análisis de la varianza de un rasgo en una población

como clave causal. Su argumento es simple y contundente: la varianza

sólo mide la dispersión de datos en torno al valor medio. Esto es, la

varianza (o dispersión media estándar) sólo es una medida de la

diversidad, que los biólogos llaman equívocamente «variabilidad». Y no

es ésta, sino la magnitud de un efecto atribuible a la variación o cambio

de una o más variables independientes, lo que importa en

consideraciones causales.

En otras palabras, la varianza no mide variación alguna, de modo que no

puede apuntar a ningún factor causal. El paralelo con la correlación

estadística es obvio: ésta sólo mide el grado de asociación de dos

variables, tales como la extensión y la población de un país, ninguna de

las cuales es causa de la otra (en cambio, la variación de una de ellas

puede inducir cambios en la otra). En conclusión, no se ha probado ni

puede probarse que el genoma cause inteligencia o idiotez, ya que la

relación causal no rige entre cosas ni entre atributos sino entre eventos.

Lo que algún día quizá se pueda probar es que tales o cuales

modificaciones genéticas, acompañadas de ciertas condiciones

ambientales, causan un aumento de la disposición a formar cerebros

inteligentes en ciertos aspectos medibles.

¿Por qué ni carnapianos ni popperianos contribuyeron a este debate?

Supongo que porque no les interesaba ni manejaban las herramientas

estadísticas necesarias. También sugiero que una metodología que no

sirve para que avance el conocimiento, o al menos para desbrozar el

camino de la investigación, sólo tiene interés para historiadores de las

ideas.

Praxiología
Ordenamiento de las acciones por su valor

El concepto ordinal de utilidad (o valor subjetivo), definido en el

apartado «Tipos de valor» de la sección «Axiología», nos permitirá

ordenar las acciones conforme a su utilidad. Si somos

consecuencialistas antes que deontologistas, ordenaremos las acciones

por la utilidad o desutilidad de sus efectos. En efecto, estipularemos que

la acción A es preferible a la acción B si y sólo si la utilidad de A

incluye la de B, y la desutilidad de A está incluida en la de B. O sea,

A ³ B si y sólo si [U(B) Í U(A)] & [D(A) Í D(B)]

Esta relación ³ de preferencia tiene las propiedades formales deseables.

En efecto, es antisimétrica y transitiva debido a la antisimetría y

transitividad de la relación de inclusión que la define.

Ejemplo: acción intencional

El concepto de acción intencional puede analizarse en función de los

conceptos de objetivo 0, insumo I, y resultado R. Adoptaré la definición

de eficacia propuesta por Quintanilla y Lawler [«El concepto de

eficiencia técnica»], a saber, como la razón de los resultados deseados a

los objetivos de la acción. Si se concibe a ambos como conjuntos (por

ejemplo, de acontecimientos), se obtiene

e = │ O Ç R │ / │O│

donde Ç designa la intersección de conjuntos. En esta expresión no

interviene el insumo ―trabajo, medio o gasto― porque una acción

puede ser eficaz en algún grado independientemente de lo que se

invierta en ella. El concepto de insumo interviene, en cambio, en el de

eficacia o rendimiento. Quintanilla y Lawler lo definen como la razón del resultado deseado a la unión de los resultados y los objetivos. Pero

en termodinámica y en ingeniería, la eficiencia se define como la razón

del producto o resultado deseado O Ç R al insumo I, o sea,

e = │ O Ç R │ / │I│

Una acción tiene eficiencia mínima (e = 0) cuando no alcanza ninguno

de sus objetivos, y tiene eficiencia máxima (e = 1) cuando R = O. El

monto del resultado colateral o no deseado, sea beneficioso o perverso,

puede definirse así:

k = │R \ O │/ │I│

donde \ designa la diferencia entre conjuntos.

El complemento de k a la unidad es lo que Quintanilla llama «ajuste»

(de medios a fines):

a = 1 - k

El ajuste de una acción es perfecto cuando R = O, en cuyo caso a = 1.

Esto sugiere que los conceptos de eficacia y de ajuste, aunque a primera

vista diferentes, son idénticos. Pero confieso que aún no he probado esta

conjetura.

Finalmente, podemos estipular que una acción es tanto más racional

(instrumentalmente) cuanto más eficaz (o ajustada). Obviamente, este

concepto de racionalidad es amoral. Problema abierto: definir tanto el

concepto de acción moral como el de acción racional.

Concepto general de acción

La praxiología, o teoría de la acción, trata de la acción humana en general: es la filosofía de la praxis [véase, por ejemplo, el anuario Praxiology]. Se dirá que también la sociología trata de la acción humana. Es verdad: la praxiología y la sociología se traslapan

parcialmente. Lo hacen sólo en parte por dos motivos. Uno es que la praxiología, a diferencia de la sociología, tiene en cuenta el valor moral de la acción: distingue las buenas acciones de las malas y de las moralmente indiferentes. El segundo motivo es que la sociología contiene poquísimos enunciados generales sobre la acción humana. Que

yo sepa, sólo tiene dos. Uno es que toda acción tiene consecuencias disfuncionales y consecuencias funcionales. El otro es el llamado «teorema» de Thomas, según el cual no reaccionamos a hechos sociales sino a la manera en que los «percibimos» [para ambas generalizaciones, véase R. K. Merton, Social Theory and Social Structure]. Los puede yacer en un espacio de estados que incluye nuevos ejes (representativos de otras tantas propiedades). O sea, algo cualitativamente nuevo respecto a los resultados separados puede emerger como resultado de la acción conjunta de ambos agentes. La generalización a un número arbitrario de agentes es trivial. praxiólogos tienen la esperanza de dar con generalizaciones adicionales, pero es preciso reconocer que aún no han encontrado muchas.

Ahora bien, el concepto de acción humana, y específicamente de acción social, es un caso particular del concepto general de acción. Y éste es ontológico, porque hay acciones en todos los niveles: físicas (por ejemplo, la acción de un fotón sobre un átomo), químicas (por ejemplo, la acción del oxígeno sobre el hierro), biológicas (por ejemplo, la acción

de la banda motriz de la corteza sobre un músculo) y sociales (por ejemplo, la acción de una persona sobre otra). El concepto general de acción puede definirse en términos del concepto de historia o trayectoria de una cosa en un espacio de sus estados [véase M. Bunge, Treatise on Basic Philosophy, vol. 3: The Furniture of the World]. En efecto, puede

estipularse que una cosa a actúa sobre otra cosa b, o a > b, si la historia de b en presencia del agente a difiere de su historia en ausencia de a (a su vez, la historia de una cosa durante un período puede analizarse

como la sucesión de sus estados durante ese intervalo). Evidentemente, a y b interactúan si a actúa sobre b y viceversa: a <> b = a > b & b > a.

El concepto de acción humana es un caso especial, a saber, cuando el agente a es una persona. Si tanto el agente como el paciente son humanos, o si el primero es una persona y el otro un sistema social o un bien público, la acción en cuestión se considerará social.

El concepto de consecuencia o efecto de una acción de a sobre b en el curso de un periodo T puede definirse como la diferencia conjuntista entre las trayectorias libre y forzada del paciente b en presencia de a y

durante el periodo T dado. La reacción total de b sobre a se definirá como la diferencia entre la trayectoria libre y la forzada del agente en presencia del paciente. Y la interacción entre a y b será igual a la unión

de la acción y la reacción. Las simbolizaciones correspondientes son:

AT(a, b) = hT(b│a) \ hT(b) =df hT(b│a) Ç hT(b)

AT(b, a) = hT(a │b) \ hT(a) =df hT(a │b) Ç hT(a) ,

IT(a, b) = AT(a, b) È AT(b, a) donde la barra horizontal designa el complemento del conjunto en cuestión en el espacio de estados.

Ahora estamos en condiciones de formalizar el concepto de consecuencia inesperada o no deseada de una acción. Llamemos A(a, b)

al efecto de la acción del agente a sobre el paciente b durante un periodo dado, y Af(a, b) al resultado predicho o deseado de la misma acción durante el mismo periodo. Las consecuencias indeseadas U(a,b) de la

acción de a sobre b son las incluidas en A(a, b) pero no en Af(a, b), o sea,

U(a, b) = A (a, b) \ Af(a, b)

Hasta aquí el concepto de acción individual. Formalicemos ahora el de acción colectiva, aunque no necesariamente concertada. Para lograrlo necesitamos el concepto de «suma» física de cosas concretas, tales como fotones o personas. La «suma» física de las cosas a y b es el ente (agregado o sistema) a*b compuesto por a y b. La acción de los agentes a y b sobre el paciente c se denotará por A(a*b, c). Los casos más simples son:

Aditividad A(a*b, c) = A(a,c) È A(b, c),

Interferencia constructiva A(a*b, c) É [A(a, c) È A(b, c)]

Interferencia destructiva A(a*b, c) Ì [A(a, c) È A(b, c)]

En particular, dos agentes pueden actuar de manera que cada cual contrarreste las acciones del otro, o sea, de modo que A(a*b, c) = Æ. En otros casos, el resultado no será comparable con la suma de los efectos

causados por los agentes por separado. En particular, como resultado de una interferencia constructiva (cooperación), la trayectoria resultante.

Ética

Los derechos y los deberes pueden clasificarse en legales y morales. Los

primeros no son problemáticos, ya que son determinados por los códigos legales. En cambio, los conceptos de derecho y deber morales sí

presentan dificultades, por lo cual empezaremos por elucidarlos.

Estipularemos que un derecho moral es la capacidad de satisfacer una

necesidad básica (como dormir o asociarse) o un deseo legítimo (como

mejorar el estilo de vida sin infringir derechos básicos ajenos).

Análogamente, proponemos que un deber moralmente exigible es el de

ayudar a otros a ejercer sus derechos morales legítimos. Más

precisamente, proponemos las normas que siguen.

Norma 1 Si a es un ser humano en una sociedad b y c es una cosa o un

proceso, entonces i) a tiene derecho moral básico a c en b si y sólo si c

contribuye al bienestar de a sin impedirle a ningún otro miembro de b

obtener o conservar ítems del mismo tipo que c, y ii) a tiene derecho

moral secundario a c en b si y sólo si c contribuye a la felicidad

razonable de a sin interferir con el ejercicio de los derechos primarios

de ningún otro en b.

Norma 2 Si a y b son seres humanos en la sociedad c, y d es una acción

que a puede ejecutar (por sí misma o con ayuda de otros) sin arriesgar

su propio bienestar, entonces i) si b tiene un derecho primario en c a d, o

a un resultado de d, entonces a tiene el deber moral primario de hacer d

para b, si y sólo si únicamente a en c puede ayudar a b a ejercer su derecho moral primario a d, o a un resultado de d, y ii) si b posee un derecho moral secundario en c a d, o a un resultado de d, entonces a tiene

el deber moral secundario de hacer d para b, si y sólo si únicamente a puede ayudar a b a ejercitar su derecho moral secundario a d o a un resultado de d.

Norma 3 Todos los derechos y deberes morales básicos son inalienables, a menos que sean objeto de contratos de intercambio entre adultos conscientes y libres bajo la supervisión de un tercero capaz de hacer cumplir el contrato.

Norma 4 i) Los derechos primarios tienen precedencia sobre los deberes secundarios. ii) Los deberes primarios tienen precedencia sobre los derechos secundarios. iii) Un individuo enfrentado con un conflicto entre un derecho y un deber es moralmente libre de elegir uno de ellos, sujeto solamente a la condición ii.

Una primera consecuencia lógica de las normas 1 y 2 es el

Teorema 1 Todo derecho implica un deber.

Este teorema, y el postulado de que todas las personas tienen ciertos

derechos morales (norma 1), implican el

Corolario Todos tienen algunos deberes.

Agregando premisas se pueden obtener más consecuencias.

Agregaremos solamente esta perogrullada: nadie es autosuficiente. Más

precisamente, agregaremos el

Lema Todos necesitan la ayuda de otros para satisfacer sus necesidades

básicas y algunos de sus deseos.

Esta proposición implica el principio de la ayuda mutua o quid pro quo:

Teorema 2 Ayudar implica ser ayudado y recíprocamente.

Ejemplo: moral científica y amoralidad técnica

El científico aislado, si existiera, no tendría otra obligación que buscar

la verdad y proclamarla. Pero todo científico de carne y hueso ha

pertenecido a alguna comunidad de investigadores, antes llamada

«República de las Letras» o «Colegio Invisible». Esta pertenencia le da

derechos, tal como el de pedir consejo a un par, y le impone deberes, tal

como el de compartir los frutos de su trabajo.

En un artículo fundacional de 1942 [incluido en el volumen The

Sociology of science], Robert K. Merton enumeró las características

morales de la ciencia básica: universalismo, comunismo epistémico,

desinterés y escepticismo organizado. El universalismo se opone al

localismo que predican hermenéuticos y nacionalistas culturales; el

comunismo epistémico consiste en la propiedad común de los bienes

adquiridos, o sea, los nuevos conocimientos; el desinterés en cuestión es

la búsqueda de la verdad por la verdad, no por su posible utilidad ni,

menos aún, como instrumento de poder, y el escepticismo organizado es

el examen crítico de los resultados e incluso el cuestionamiento de creencias arraigadas dentro o fuera de la comunidad científica por

cualquier miembro de ella: el investigador propone y la comunidad

dispone.

El código moral de la ciencia básica es endógeno: lo genera la propia

investigación básica y es independiente del código moral que rige en la

sociedad anfitriona. Es una endomoral. El técnico no puede atenerse al

mismo código porque trabaja para un patrón, empresario o Estado. En

técnica sólo vale lo que tiene utilidad o promete tenerla para alguien; se

vale robar ideas al competidor, sea empresa o país; se practica el secreto

industrial, y la crítica se limita al equipo del cual forma parte el técnico

[véase J. A. Sábato, Ensayos en campera].

Esto no implica que debamos dar libertad al técnico para que diseñe

artefactos o procesos que puedan dañar a la sociedad o la naturaleza. Al

contrario, puesto que el técnico individual no se siente constreñido ni

estimulado por la endomoral de la ciencia básica, es deseable que las

asociaciones profesionales y los parlamentos impongan una moral

técnica mínima. Lo menos que puede pedirse es que todo

macroproyecto técnico sea evaluado no sólo por quienes lo pagan, sino

también por quienes pueden ser sus víctimas. Ejemplos: embalses,

plantas nucleares, talado de bosques, cultivos genéticamente

modificados, y políticas macroeconómicas y culturales.

Dicho de otro modo, es necesario que la técnica sea sometida al control

democrático [véase J. Agassi, Technology]. Es deseable que las

asociaciones profesionales protejan a aquellos de sus miembros que

arriesgan su trabajo cuando denuncian públicamente las intenciones o

actividades antisociales de sus empleadores. En una palabra, el código

(aún no escrito) que debería regir la actividad profesional del técnico no

es endógeno como el de la ciencia sino exógeno: tiene que ser impuesto

desde fuera.

Norma moral

Las normas morales son invenciones sociales, al igual que la división

del trabajo y el Estado. Se las adopta, reforma o rechaza según sirvan,

ya para el bienestar individual y la convivencia general, ya para

apuntalar privilegios. De esta tesis se sigue que el proyecto

sociobiológico es vano. Por cierto que las normas evolucionan, pero

cambian junto con la sociedad antes que junto con el genoma. En

algunos casos se las pone en práctica porque sugieren conductas

adaptativas, y en otras se las conserva pese a ser contraproducentes.

Las normas morales son de dos tipos: universales y particulares

(tribuales o clasistas). Los mandamientos bíblicos son típicamente

tribuales y sexistas. En cambio, las normas de equidad y de reciprocidad

son universales. Sólo las normas universales son sostenibles. Lo son

porque, lejos de imponer solamente deberes o de conceder solamente

derechos, proponen pares derecho-deber. Por ejemplo, el derecho a la

progenitura nos impone el deber de criar a nuestros hijos. La consecuencia práctica es inmediata: quien no quiere o no puede cargar

con la crianza de sus hijos carece del derecho moral a procrear.

Los códigos morales deontológicos, que imponen deberes sin los

derechos concomitantes, son opresivos y por lo tanto invitan al engaño o

la rebelión. Y el código moral utilitario, o hedonista, es socialmente tan

disolvente como el anarquismo. Es más, ni siquiera es practicable.

Veamos por qué.

La norma moral utilitarista, debida a Claude Helvétius y adoptada por

Joseph Priestley y Jeremy Bentham, es que hay que procurar «la mayor

felicidad del mayor número». ¿Es posible implantar esta norma?

Veamos. Supongamos que la felicidad puede cuantificarse, y llamemos

F a la cantidad total de felicidad accesible a una sociedad dada en un

momento dado. Podemos visualizar a F como un pastel a repartir entre

los n miembros de la sociedad. Efectuando una partición igualitaria, a

cada uno de ellos le tocará un sector de ángulo f (en radianes). El total

disponible, F = 2p, se distribuirá entre los n individuos. O sea, nf = 2p.

Pero no se puede maximizar a la vez n y f. En efecto, cuanto mayor sea

n, tanto menor será f y viceversa. O sea, la norma utilitarista, tan noble a

primera vista, no es factible, ni siquiera si se resuelve el problema de la

cuantificación de la felicidad (o bienestar). Una de las razones del

fracaso de esta norma es que sólo atañe a lo que debiéramos recibir:

olvida lo que debiéramos dar. La alternativa que propongo tiene en

cuenta tanto deberes como derechos.

Esta alternativa se resume en la máxima moral «Disfruta de la vida y

ayuda a disfrutarla» [véase M. Bunge, Treatise on Basic Philosophy,

vol. 8: Ethics]. Esta norma combina un derecho con el deber

correspondiente. También combina el egoísmo con el altruismo: es una

máxima yotuista. Si se prefiere, combina la moral kantiana del deber

con la utilitarista del derecho. Por lo tanto, está a salvo de las objeciones

al deontologismo y al utilitarismo. Volveremos a ella en el apartado «La

sociedad ideal» de la sección «Filosofía social».

Axiología
Tipos de valor

Tipos de valor

En distintos campos de actividad nos proponemos realizar distintos

valores. Así, distinguimos valores biológicos, psicológicos, epistémicos,

estéticos, morales, sociales y económicos, entre otros. Por ejemplo, el

ajo será bueno para la salud, pero es malo para la convivencia, y el

comercio de armas es bueno para ciertas economías, pero malo para la

salud.

El mero reconocimiento de que los valores se agrupan en tipos

diferentes hace dudosa la posibilidad de construir una única «tabla» de

valores, desde el ínfimo hasta el máximo. Dicho de otro modo, es

dudoso que el conjunto de valores pueda ordenarse como se ordenan los

números. Y si los valores de tipos diferentes no pueden ordenarse,

tampoco pueden compararse entre sí. Por ejemplo, no tiene sentido

preguntarse si una sonata de Mozart es intrínsecamente más o menos

valiosa que una comida. En cambio, tiene sentido preguntarse cómo un

individuo dado compara esos bienes en una situación determinada. Si

bien hay valores supraindividuales y universales, todo acto de valuación

es individual y situacional.

Lo que sí tiene sentido es preguntarse qué cosas o sucesos son más

valiosos que otros para un individuo dado en algún respecto y alguna

circunstancia. Por ejemplo, para un hambriento una comida es más

valiosa que escuchar una sonata de Mozart, mientras que un melómano

bien alimentado invertirá el orden. Hay por lo menos tantas «tablas» de

valores intrínsecos como tipos de valores, y tantos valores

instrumentales como situaciones.

Ejemplo

Ejemplo: valores científicos y valores técnicos

La opinión vulgar sobre la ciencia es que es igual a la técnica. Ésta es

también la opinión de filósofos empiristas como Francis Bacon y

pragmatistas como William James, así como de los posmodernos que hablan de «tecnociencia» y «desconstruyen» (ponen al descubierto y denuncian) la ciencia como arma de poder. Todos ellos no sólo confunden la ciencia básica con la técnica, sino que no conocen otro valor que el de la utilidad práctica. De hecho, el valor supremo de la investigación científica básica es la verdad, mientras que el de la técnica es la utilidad. Demostración: las pruebas científicas son tests de verdad, mientras que las técnicas son tests de eficiencia. Sin embargo, la técnica moderna, por basarse sobre la ciencia, también aprecia la verdad. Es más, el técnico innovador, a diferencia del rutinario, es motivado primariamente por la curiosidad. El mercado premia y castiga, cuando no es indiferente, pero no inspira.

Una manera de distinguir la técnica de la ciencia básica es afirmar que tiene dos tablas de valores: una extrínseca, que se deriva de su función social, y otra intrínseca, centrada en la verdad. Hay así dos enfoques axiológicos del saber: el endoaxiológico y el exoaxiológico. El primero centra su atención en valores epistémicos, tales como claridad,

coherencia, verdad, poder explicativo y poder predictivo. Quien no puede realizar al menos uno de ellos está al margen de la ciencia. En cambio, la eficacia, eficiencia, utilidad social, y utilidad económica, valores típicamente técnicos, son dictados parcialmente por la sociedad.

Volveremos a este tema en el apartado «Ejemplo: moral científica y

amoralidad técnica» de la sección «Ética».

Conceptos de valor

Un valor puede ser objetivo, subjetivo, o ambas cosas a la vez. Mejor

dicho, un objeto puede ser valioso de una de tres maneras:

objetivamente, subjetivamente, o de ambas maneras. Porque hablar de valores en sí, antes que de objetos a los que se ha atribuido algún valor, es cometer el pecado conceptual de la reificación, como cuando se habla de la verdad, la belleza o la justicia en sí mismas.

Postularé que un objeto es objetivamente valioso si satisface alguna necesidad o aspiración legítima, como ocurre con los alimentos y la estima del prójimo, y que es subjetivamente valioso si se lo desea

independientemente de su valor objetivo, como ocurre con la heroína y la crueldad [véase M. Bunge y R. Ardila, Filosofía de la psicología].

Empecemos por exactificar el concepto de valor objetivo en el caso más sencillo, que es el de los bienes cuantificables. Supondremos que el valor básico de un objeto es la medida en que satisface una necesidad básica; y que el disvalor básico de un objeto es la medida en que genera una necesidad básica. Más precisamente, proponemos el postulado

siguiente.

Sea x una clase de objetos capaces de satisfacer o generar una necesidad básica y de un animal dado en un estado dado, y llamemos A(x) a la cantidad de x accesible a dicho animal, y N(x,y) a la cantidad de x

necesaria para satisfacer plenamente a y. El valor de x para el animal en cuestión, en el estado dado y relativamente a y, será

V(x, y) = sgn (x, y). [1 – A(x) / N(x, y)]

donde + 1 si y solo si x satisface a y

sgn (x, y) = - 1 si y solo si x genera a y A continuación introduciremos dos nociones conjuntistas de utilidad que, por ser cualitativas, no son pasibles de las críticas que se ha formulado a la utilidad cardinal. El primer concepto elucida la idea intuitiva de que algo es útil o beneficioso si y sólo si satisface alguna necesidad o deseo de alguien. O sea, estipulamos que la utilidad del objeto x para el animal (por ejemplo, ser humano) o grupo social y es la colección de necesidades (N) o deseos (D) de y que x satisface:

U(x,y) = (zÎN È D | Sxzy)

donde Sxzy abrevia «x satisface la necesidad o deseo z de y».

Este concepto cualitativo nos permite definir un concepto comparativo.

En efecto, podemos decir que un objeto a es preferible a un objeto b para el sujeto y (o sea, a >y b) si la utilidad de b para y está incluida en la de a. O sea,

a >y b =df U(b, y) Í U(a, y)

Obviamente, esta relación de preferencia hereda la antisimetría y la transitividad de la relación de inclusión que la define.

Las definiciones anteriores no hacen referencia explícita a los efectos laterales disvaliosos de toda acción humana, incluso la más altruista.

Este defecto puede remediarse como sigue. Sea A una acción con consecuencias positivas (o placenteras) P1, P2 , ..., Pm y efectos

negativos (o nocivos) N1, N2, ... , Nn donde m y n son enteros iguales o mayores que la unidad. Definiremos la utilidad de la acción A como el conjunto de las P, y su disutilidad como el conjunto de las N. O sea,

U(A) = {P1, P2, ..., Pm}, D(A) = {N1, N2, . .., Nn}

Posteriormente, en el apartado «Ordenamiento de las acciones por su

valor» de la sección «Praxiología», utilizaremos estas definiciones para ordenar las acciones.

Ambos

Subjetivo

Objetivo

Axiología y ética

valer y hacer

Sinopsis final

Llegamos al fin de la gira turística por mi tratado. Esta filosofía se distingue por los principios siguientes->

Casi todos estos rasgos han aparecido anteriormente en la historia de la filosofía, pero nunca se habían presentado todos juntos. Por ejemplo, tanto Kant como los positivistas lógicos intentaron unir el racionalismo con el empirismo, pero ambos fallaron porque se limitaron a las apariencias: no fueron realistas ni, por lo tanto, cientificistas, aunque alababan la ciencia.

Segundo ejemplo: el marxismo es materialista, pero sólo a medias, ya que postula que la superestructura o cultura es ideal. Y se jacta de ser científico pero no hace caso de contraejemplos, e incluye el galimatías dialéctico, paragón de especulación inexacta.

Tercer ejemplo: las filosofías morales se centran, ya en los deberes, como el kantismo, ya en los derechos, como el utilitarismo. Pero los seres humanos normales combinamos los deberes con los derechos, y el altruismo con el egoísmo, que es lo que propone mi ética agatonista.

También han aparecido esporádicamente elementos novedosos en la literatura filosófica contemporánea, pero han sido gemas sueltas. Que yo sepa, el único sistema filosófico construido en la segunda mitad del siglo xx es el que acabo de esbozar. Esto no es coincidencia: la idea misma de sistema filosófico fue desacreditada como obsoleta tanto por los analíticos como por sus adversarios viscerales. Este fue un error: lo malo no es la sistematicidad sino el sistema especulativo.

La idea de sistematizar la filosofía, es decir, de poner en evidencia los lazos entre sus componentes, debería ser natural para quienquiera que estudie sistemas, sea de cosas concretas o de ideas, naturales o artificiales, ya que no se concibe que algo exista o pueda comprenderse desprendido de algún sistema. Por ejemplo, no hay cosas ni ideas aisladas, así como no hay palabras que no se relacionen con otras palabras.

carecen sus componentes.

Anímense: semejante empresa sólo exige una veintena de años maduros en un país normal, libre de convulsiones políticas puramente destructivas que sólo respondan a intereses mezquinos.

10. Holotecnodemocracia.

Democracia integral (biológica, económica, política y cultural) informada por la moral agatonista y la sociotécnica.

9. Agatonismo.

No hay derecho sin deber, ni deber sin derecho. Y el máximo principio moral debería ser «Goza la vida y ayuda a vivir». Es una combinación de egoísmo con altruismo, de Ojalá esta gira turística por mi sistema filosófico despierte la curiosidad de algunos lectores y les anime a perfeccionarlo o a reemplazarlo por otro más al día, más profundo, más verdadero, o las tres cosas a la vez.

8. Exactitud.

Intenta exactificar ideas intuitivas interesantes, o sea, convertirlas en ideas que posean una forma lógica o matemática precisa.

7. Racioempirismo.

Combinación de los constituyentes válidos del racionalismo y del empirismo. Esta filosofía aspira a ser clara, coherente e hipotético-deductiva, al tiempo que pone sus hipótesis a la prueba de los hechos.

6. Cientificismo.

La mejor manera de averiguar cómo son las cosas, sean naturales, sociales, artificiales o conceptuales, es adoptar el método científico. Y la mejor manera de evaluar los principios filosóficos es exhibir, ya su compatibilidad con la ciencia y la técnica del momento, ya su valor heurístico en la investigación científica o técnica, ya su valor en el diseño de políticas que propendan al mejoramiento de la calidad de la vida.

5. Realismo.

El mundo exterior al conocedor existe independientemente de éste y es cognoscible, al menos parcial y gradualmente.

4. Dinamicismo.

Todo cuanto existe realmente cambia. Sólo los objetos conceptuales (por ejemplo, matemáticos) son inmutables, pero lo son por convención.

3. Emergentismo.

Los sistemas poseen propiedades de las que utilitarismo con deontologismo, y de cognitivismo con emotivismo.

2. Sistemismo.

Todo cuanto existe ―sea concreto, conceptual o semiótico― es, ya un sistema o paquete de cosas, ya un componente de algún sistema.

1. Materialismo

Todo cuanto existe realmente, dentro o fuera del sujeto, es material o concreto. Las propiedades no existen de por sí, sino que son poseídas por objetos, ya concretos, ya conceptuales. Tampoco hay ideas autónomas: todas las ideas son procesos cerebrales. Por ejemplo, el número tres no existe en la naturaleza ni en la sociedad; sólo existe mientras es pensado por alguien.

Filosofía política

La filosofía política es la rama de la filosofía práctica que elabora, examina y evalúa proyectos políticos, sean éstos de mantenimiento o de reforma del orden social. Quienquiera que lea periódicos o escuche noticieros tendrá que admitir que no hay sociedad sin gravísimos problemas sociales. Incluso las sociedades más prósperas, equitativas, pacíficas y mejor administradas ―las escandinavas, la holandesa, la alemana y la japonesa― tienen problemas sociales agudos, como la desocupación, el alcoholismo, la teleadicción, la afición desmedida a los automóviles, el facilismo de los jóvenes y el cinismo político de gran parte del electorado.

Naturalmente, nada de esto cuenta en comparación con los problemas que sufren las sociedades más desigualitarias del mundo: las latinoamericanas. Todos nos quejamos de la violencia y de la corrupción características de estas sociedades, sin reparar en los principales factores de esos males: desigualdad, autoritarismo, tradicionalismo e impunidad. La pobreza por si sola no explica la violencia ni la corrupción. Las explican la desigualdad extrema, la tradición machista de hacer «justicia» por cuenta propia y la impunidad de que suelen gozar los matones y ladrones, sobre todo cuando trabajan para el gobierno.

Pero basta de quejas. ¿Qué hacer? ¿Recurrir a alguna de las ideologías conocidas? Todas ellas han fracasado, aunque puede decirse que el socialismo nunca ha sido ensayado: lo que se ensayó fue el estatismo de izquierda, ya moderado, ya radical. El estatismo de izquierda es superior al de derecha, o fascismo, pero ha resultado económica y políticamente desastroso. También ha sido un desastre moral, porque ha fomentado el egoísmo y la sumisión que nacen del miedo provocado por la represión.

Propongo que se intente diseñar un nuevo proyecto de sociedad, uno que, a diferencia de los anteriores, se funde sobre tres pilares:

a) La moral agatonista, que se resume en «Goza de la vida y ayuda a vivir»;

b) La consigna de la Revolución Francesa: «Libertad, igualdad, fraternidad» (o, mejor aún, «solidaridad»), y

c) Los hallazgos más sólidos de las ciencias y técnicas sociales, desde la sociología hasta la administración de empresas.

Estas tres ideas, tomadas juntas, sugieren diseñar y construir un régimen de democracia integral informado por la sociotécnica. Por «democracia integral» entiendo un régimen sin discriminación sexual ni étnica, así como de participación en la riqueza, en la cultura y en la política. La democracia política es necesaria no sólo para gozar de libertad de expresión, asociación y brega política, sino también para garantizar el acceso equitativo a la riqueza y a la cultura, para evitar la discriminación injustificada, y recordar a los políticos que representan al pueblo. La democracia económica es necesaria para terminar con la explotación y el privilegio. Esta democracia se alcanza de dos maneras: con la pequeña empresa en el caso de los negocios pequeños, y con la cooperativa autogestionada en el caso de las grandes empresas. Y la democracia cultural es necesaria para dar a todo el mundo la oportunidad de desarrollar su cerebro y de gozar con el comercio, el arte, las humanidades y la ciencia.

Pero la democracia no basta: para que funcione bien es preciso que se ajuste a un código moral mínimo, aceptable por todos o al menos casi todos. También es necesario que los ciudadanos sepan elegir bien, para lo cual deberán informarse bien, acudiendo al consejo de los expertos toda vez que sea necesario. Ya no habrá que votar por el político de imagen televisiva más linda, ni por quien prometa más. Habrá que votar por los equipos mejor asesorados. Y no bastará votar: habrá que controlar al servidor público. De esta manera, la clase política, interesada sólo en ganar el poder o en conservarlo, será gradualmente desplazada por grupos cambiantes de ciudadanos socialmente conscientes y asesorados por los mejores técnicos del momento. Llamo «holotecnodemocracia» a este régimen social. Creo que la idea huele bien, aunque su nombre suene mal.

Acción racional y acción moral

El concepto general de acción pertenece a la ontología. Puede aclararse así: una cosa (animada o inanimada) actúa sobre otra si modifica su historia (o sucesión de estados). Más precisamente, Acción At(a,b) = ht(b \ a) \ ht(b)

Interacción It(a, b) = It (b, a) = At(a, b) È At(b, a) donde ht(b) es la historia de b en ausencia de a, y ht(b \ a) su historia en presencia de a, durante el periodo t. Y la barra \ designa la diferencia entre conjuntos; o sea, A \ B es el conjunto de los objetos que pertenecen a A pero no a B.

La acción humana es un caso particular del concepto general de acción: se presenta cuando el agente es un ser humano. La acción humana es objeto de la praxiología, o teoría de la acción, que yo propongo incluir, junto con la ética, la filosofía política e incluso la metodología, en la tecnología filosófica.

Hay dos escuelas axiológicas tradicionales: la polaca, del filósofo Tadeusz Kotarbinski, y la austriaca, del economista Ludwig von Mises.

La primera es ambiciosa pero hasta ahora ha permanecido en su fase programática. La segunda escuela ha rendido aun menos. Primero, porque se centra en la máxima utilitarista, que ignora las motivaciones no utilitarias de la acción humana, a tal punto que Von Mises la expone en su libro titulado Human Action: A Treatise on Economics (1949).

Segundo, esta doctrina no hace uso de herramientas formales. Tercero, es ajena a la ética, como si sólo importasen las acciones económicas. Es una praxiología antihumanista.

Siguiendo a Kotarbinski, entiendo por acción racional la que se diseña y ejecuta a la luz del mejor conocimiento pertinente. Las técnicas se ocupan precisamente de esto: de diseñar programas de acción racional, ya sea para construir artefactos o para desencadenar procesos controlados. Pero la racionalidad no basta: también es preciso que el agente se ajuste a un código moral mínimo. Lo menos que se le pide es que no dañe a terceros (utilitarismo negativo). Lo más, que sea solidario, o sea, que ayude al prójimo a ejercer sus derechos morales.

Dicho de otra manera: cuando se evalúa un proyecto de acción pasible de afectar a otros, hay que hacerlo a la luz de dos grupos de criterios: técnicos y morales. Esto vale, en particular, para la acción política.

Derechos y deberes

Postulo que hay derechos morales básicos y derechos morales secundarios. Un derecho moral es básico si su ejercicio contribuye al bienestar del agente sin impedir a otras personas que ejerzan el mismo derecho. Un derecho moral es secundario si contribuye a la felicidad razonable de alguien sin interferir con el ejercicio de los derechos primarios de otras personas. Por ejemplo, todos tienen derecho a comer, pero el derecho a estudiar filosofía es secundario.

Los deberes son paralelos. Si una persona tiene un derecho moral primario a algo, otra persona tiene el deber de ayudarla a ejercerlo si

ninguna otra puede hacerlo en su lugar. Y si una persona tiene un derecho secundario, otra tiene el deber moral secundario de ayudarla a

ejercerlo si ninguna otra puede hacerlo en su lugar. Por ejemplo, yo tengo el deber primario de llevar a un accidentado al hospital si no hay

una ambulancia a mano. Y tengo el deber secundario de ayudar a alguien a estudiar filosofía si no hay una buena escuela de filosofía a mano.

Estas definiciones intervienen en las normas siguientes:

Norma 1 Todos los derechos y deberes morales básicos son inenajenables, excepto cuando son motivo de contrato entre adultos hábiles y bajo la supervisión de una tercera parte capaz de hacer cumplir el contrato.

Norma 2 Las normas legales y convencionales deberían supeditarse a las normas morales.

Norma 3 i) Los derechos y deberes primarios tienen precedencia sobre los secundarios; ii) los deberes primarios privan sobre los derechos

secundarios; iii) en caso de conflicto entre un derecho y un deber, se tiene derecho a elegir cualquiera, sujeto a la condición ii.

Estos tres postulados implican varias consecuencias lógicas. Una de ellas es el Teorema 1 Todo derecho implica un deber.

Demostración: Considérese un microuniverso constituido por dos personas, llamadas 1 y 2, y llámese Ni a una necesidad básica y Ri al

derecho correspondiente, con i = 1, 2. Análogamente, llámese D12 al deber de la persona 1 para con la persona 2 con respecto a su necesidad

N2, y D21 al deber de la persona 2 para con la persona 1 con respecto a su necesidad N1. Las dos primeras normas pueden abreviarse:

Norma l (N1 Þ R1) & (N2 Þ R2)

Norma 2 [R1 Þ (R1 Þ D21)] & [R2 Þ (R2 Þ D12)]

Por el principio del silogismo hipotético, se sigue que

[N1 Þ (R1 Þ D21)] & [N2 Þ (R2 Þ D12)]

Y, puesto que todos tenemos necesidades básicas (dato), finalmente se sigue, por modus ponens, que

Teorema 2 (R1 Þ D21) & (R2 Þ D12)

Este teorema y la norma 1 implican el Corolario 1 Todos tienen algunos deberes.

La norma máxima

Todo código moral es piramidal, en el sentido de que está encabezado por alguna norma máxima, tal como «Cumple con tu deber» en el caso

de la ética kantiana, y «Maximiza tu utilidad» en el caso de la ética utilitarista. No hay por qué elegir entre estas dos normas, ya que ambas

son buenas en combinación. Una norma que las sintetiza es «Goza de la vida y ayuda a vivir». Ésta es la norma máxima de la ética que he

llamado agatonismo, o búsqueda de lo bueno para uno y para los demás.

Normas técnicas y normas morales

Hay normas de varios tipos: técnicas, legales, morales y convencionales.

Las normas técnicas contemporáneas tienen o deberían tener una justificación científica. Algunas normas legales se ajustan a los intereses

generales (comunes a todos) y otras a intereses especiales. Las normas morales deberían responder al bienestar individual y favorecer la justicia, la convivencia, la cohesión social, la paz y otros valores sociales. Sólo las normas convencionales, tales como las reglas de etiqueta, carecen de justificación o fundamento objetivo.

Las normas no son verdaderas ni falsas, sino eficaces o ineficaces para alcanzar ciertas metas. Esto no implica que tengan necesariamente la forma de imperativos o mandamientos, y que por consiguiente escapen a las reglas de la lógica ordinaria. Toda norma puede expresarse en forma declarativa. Por ejemplo, «No matarás» puede traducirse a «Es malo matar». Esta traducción invita al cuestionamiento de algunas normas morales, y este cuestionamiento es necesario porque algunas de ellas ya no responden a la realidad social, o bien no se ajustan al saber actual. Este es el caso de muchos mandamientos religiosos. En cambio, hoy día aceptamos normas morales ajenas a las llamadas grandes religiones, tales como las que mandan controlar la natalidad, evitar la guerra, disminuir las desigualdades sociales, elevar el nivel educacional, participar en política y respetar los derechos de las minorías.

Convencionales

Morales

Legales

Técnicas

Hecho y valor

Desde Hume se sabe que las proposiciones de las formas «x es F» y «x debería ser F» no pueden deducirse entre sí. En otras palabras, hay un hiato lógico entre el ser y el valer. Pero suele ignorarse que de hecho cruzamos esta brecha conceptual cada vez que hacemos algo para alcanzar una meta que juzgamos valiosa. O sea, la acción conduce de lo actual a lo deseado o debido.

Es más, la acción racional, a diferencia de la irracional o impulsiva, es precedida de estudios, deliberaciones, elecciones y decisiones. Este proceder es típico de la técnica, cuyo núcleo es el diseño de cosas, procesos o planes de acción. La técnica puede caracterizarse como el arte y la ciencia del tránsito de lo que es a lo que debería ser.

Un ejemplo aclarará lo dicho. La relación entre el volumen P de la producción de una industria contaminante y el tamaño C de la contaminación es C = c.P, donde c es una constante carac-terística de la industria. Supongamos que la meta de un organismo regulador sea disminuir C a un nivel tolerable sin asfixiar la industria. La realización de esta finalidad requiere estudios complejos que involucren a expertos en salud pública, meteorología, industria, urbanismo, etc. El compromiso a que llegue este equipo interdisciplinario se resume en una nueva fórmula, que reemplaza la constante c por la constante c.(l-b), donde b es la variable estratégica (o dial). El valor del parámetro b está comprendido entre 0 (libertad de empresa) y 1 (prohibición de la industria). El problema del equipo será dar con el valor óptimo del parámetro b. Una vez elegido b, la ley original se convierte en la regla técnica C = c.(1-b) P. Esta regla no se deduce de la ley correspondiente, aunque se funda en ella. Lejos de ser arbitraria o meramente empírica, la regla ha sido construida sobre la base de la ley científica, de datos sobre contaminación ambiental, y de un juicio de valor, a saber, «Es deseable mantener la contaminación ambiental por debajo del valor a partir del cual es nociva para la salud». A su vez, la valoración de la salud pública se deriva de un juicio de valor más general, a saber, «La vida es valiosa».

Este procedimiento admite tácitamente la tesis de que los juicios de valor no pueden deducirse de enunciados de hecho. Pero al mismo tiempo rechaza la tesis humeana de que los valores y las normas son puramente emotivos o irracionales. Es posible y deseable justificar racional y empíricamente la elección de valores, así como elaborar reglas de conducta que incorporen valores que han sido pasados por los tamices de la ciencia y de la técnica.

Gnoseología y semántica

saber y significar

La semántica es la teoría del significado, la verdad y conceptos afines.

La gnoseología, o teoría del conocimiento, se ocupa del conocimiento hecho, así como del acto de conocer o del proceso de averiguar o investigar. Ambas ramas de la filosofía están estrechamente relacionadas entre sí, porque todo trozo de conocimiento se formula como una proposición, la cual a su vez se puede enunciar en alguna de las numerosas lenguas naturales y artificiales.

Los vertebrados somos naturalmente curiosos y exploradores.

Necesitamos saber para sobrevivir. Pero hay saberes desinteresados: hay ciencia pura, así como hay filosofía y arte por el arte. Con todo, lo que no sirve hoy puede servir mañana. El conocimiento de utilidad

previsible es técnico. Ni Faraday ni Maxwell pudieron prever que sus investigaciones sobre el campo electromagnético constituirían la base intelectual de dos grandes industrias: las de la energía eléctrica y las comunicaciones. Su pura curiosidad intelectual terminó por generar una gigantesca riqueza económica. Esta nueva alquimia, que transmuta el

conocimiento en riqueza y poder, es la técnica moderna que permite

transformar las cosas de manera deliberada e inteligente. Es el puente

entre saber y hacer.

Saber en sociedad

Todo cuanto hacemos está inserto en algún sistema social, de la familia

hacia arriba. En particular, aprendemos de otros y enseñamos a otros: no

hay aprender ni, por tanto, saber en un vacío social. El prójimo nos

estimula o inhibe. Lo que vale para los individuos vale, mutatis

mutandis, para las instituciones. Por ejemplo, la libertad de expresión

facilita el aprendizaje y el debate racional, en tanto que la censura los

limita, distorsiona o corrompe. Baste recordar los casos de las censuras

eclesiásticas, totalitarias y macartistas.

Pero la libertad de investigación y de expresión, con ser necesaria para

aprender y enseñar, no basta. Es preciso que el Estado y algunas

organizaciones no gubernamentales no sólo toleren, sino también

alienten la investigación para que ésta florezca y, con ella, prospere la

sociedad íntegra, sobre todo en nuestro tiempo, cuando el conocimiento

es oro. Los buenos estadistas modernos son quienes, como Sarmiento,

comprenden que no hay progreso sin ciencia. Los gobiernos que, como

los argentinos del siglo xx, dan la espalda a la investigación científica,

condenan a sus pueblos a la ignorancia y por lo tanto a la indigencia.

Sin duda, todo investigador y todo docente pertenece a alguna red

(comunidad científica, técnica o docente), pero de ello no se sigue que

el estudioso del saber sólo deba fijarse en las redes sociales. Para

entender la existencia y el funcionamiento de estas redes debe averiguar

qué hacen sus nodos. Dicho metafóricamente, para caracterizar al

pescador no basta con describirlo como alguien que maneja redes: hay

que añadir que se propone pescar y que lo que pesca está fuera de las

redes: atrapa peces, no pescadores. La red no hace al pez, sólo ayuda a

pescar lo que ya está allí. Si es pequeña, sólo atrapará mojarras; si es

grande, podrá pescar atunes.

Digo esto para contrarrestar al sociologismo de la ciencia y de la técnica

que está de moda. Esta escuela, compuesta por sociólogos, filósofos y

literatos ignorantes de la ciencia y de la técnica, tales como Foucault,

Latour, Woolgar, Knorr-Cetina, Bloor, Fuller, los dos Collins, y otros,

sostiene que todas las ideas científicas tienen un contenido social, y que

la investigación científica consiste en hacer inscripciones y no es sino

una lucha por el poder. Puesto que no buscan la verdad sino la notoriedad,

ignoran que la finalidad de la investigación científica es

alcanzar la verdad, y que el universitario que se dedica a politiquear no

es científico, sino politiquero.

Humanidades e ideología

Las humanidades y las ideologías no se sujetan a las condiciones que

caracterizan a la ciencia y a la técnica. Son disciplinas o indisciplinas de

butaca, no de laboratorio ni de taller. Sin embargo, no tienen por qué ser

incoherentes ni descabelladas. De toda disciplina humanística, como la

filosofía y la historia de la literatura, se espera que sea coherente, que

busque la verdad y que cambie por efecto de la investigación. También

se espera que haga contacto con las ciencias pertinentes.

Por ejemplo, quien estudie la obra de Lope de Vega no podrá ignorar

que sus comedias se representaban con gran éxito ante un público

formado por aristócratas, burócratas y comerciantes enriquecidos por el

saqueo de América. Lope, al igual que Shakespeare, escribió para el

mercado. Esto no es extraño; lo extraordinario es que fueran grandes

artistas que hicieron pocas concesiones a los consumidores.

Pasando a otra rama de la cultura, quien pretenda hacer ontología o

gnoseología modernas no podrá ignorar el A-B-C de la ciencia y de la

técnica, a menos que se limite a repetir, comentar o macanear. En

resumen, el investigador en humanidades no podrá ignorar todo lo que

suceda fuera de su campo. Por ejemplo, quien haga filosofía de la mente

no podrá ignorar la neurociencia cognoscitiva.

Las ideologías poseen núcleos filosóficos, pero no son campos de

investigación. Son cuerpos de conocimientos o mitos y de juicios de

valor. Sin embargo, se espera que una ideología socio-econo-políticaLas humanidades y las ideologías no se sujetan a las condiciones que

caracterizan a la ciencia y a la técnica. Son disciplinas o indisciplinas de

butaca, no de laboratorio ni de taller. Sin embargo, no tienen por qué ser

incoherentes ni descabelladas. De toda disciplina humanística, como la

filosofía y la historia de la literatura, se espera que sea coherente, que

busque la verdad y que cambie por efecto de la investigación. También

se espera que haga contacto con las ciencias pertinentes.

Por ejemplo, quien estudie la obra de Lope de Vega no podrá ignorar

que sus comedias se representaban con gran éxito ante un público

formado por aristócratas, burócratas y comerciantes enriquecidos por el

saqueo de América. Lope, al igual que Shakespeare, escribió para el

mercado. Esto no es extraño; lo extraordinario es que fueran grandes

artistas que hicieron pocas concesiones a los consumidores.

Pasando a otra rama de la cultura, quien pretenda hacer ontología o

gnoseología modernas no podrá ignorar el A-B-C de la ciencia y de la

técnica, a menos que se limite a repetir, comentar o macanear. En

resumen, el investigador en humanidades no podrá ignorar todo lo que

suceda fuera de su campo. Por ejemplo, quien haga filosofía de la mente

no podrá ignorar la neurociencia cognoscitiva.

Las ideologías poseen núcleos filosóficos, pero no son campos de

investigación. Son cuerpos de conocimientos o mitos y de juicios de

valor. Sin embargo, se espera que una ideología socio-econo-política moderna se base no sólo en juicios de valor bien fundados, sino también

en algunos resultados pertinentes de las ciencias sociales. Se puede

pensar, pues, en ideologías científicas. A propósito, el neoliberalismo no

es tal. Da por verdadera la teoría económica estándar formulada hacia

1870, que es imprecisa y no sirve para hacer negocios ni para diseñar

políticas macroeconómicas. Y, por supuesto, el núcleo moral del

neoliberalismo es el egoísmo, que es antisocial y por lo tanto inmoral.

Ciencia y técnica

La ciencia fáctica se propone entender el mundo, y la técnica se propone modificarlo. Tanto la una como la otra son objetos culturales a tal punto complejos que no puede describírselos adecuadamente con una sola

frase, como suelen hacerlo los filósofos. Propongo la siguiente caracterización: una familia de ciencias o de técnicas es un conjunto cada uno de cuyos miembros es representable por la decatupla

S, T = áC, S, D, G, F, B, P, K, A, Mñ,

donde C = comunidad de investigadores o expertos (no meramente creyentes)

S = sociedad anfitriona (tolerante de las actividades de C)

D = dominio o referentes (por ejemplo, sistemas sociales en el caso de

las ciencias sociales)

G = visión general o trasfondo filosófico (materialismo y realismo)

F = trasfondo formal (lógica y matemática)

B = trasfondo específico (por ejemplo, sociología y economía en el caso

de la técnica de la administración)

P = problemática

K = fondo de conocimiento (hallazgos más bien robustos)

A = metas (verdad y profundidad en S, eficiencia y utilidad en T)

M = metódica (métodos escrutables y justificables, empezando por el

método científico)

Condiciones adicionales:

1. Hay por lo menos una disciplina contigua, que se traslapa parcialmente con la disciplina dada y que tiene los rasgos generales antes listados. Es decir, no hay ciencia ni técnica autónomas: sólo hay especialistas con visión periférica limitada. Las disciplinas autónomas,

tales como el psicoanálisis, la parapsicología y la homeopatía, no son ciencias ni técnicas: son creencias o negocios.

2. La composición de cada una de los ocho últimos componentes de la decatupla cambia, en el caso de S, como resultado de la investigación, y en el caso de T, también a consecuencia de exigencias sociales (por

ejemplo, demanda del mercado).

Una de las diferencias conceptuales entre la ciencia y la técnica es que los problemas científicos suelen ser directos, mientras que los técnicos suelen ser inversos. Por ejemplo, dada una antena, un físico puede calcular las ondas que emite; al ingeniero, en cambio, se le encomienda el diseño de una antena que emita ondas que se propaguen con la

frecuencia deseada en la dirección deseada. O, dado un compuesto químico, un biólogo puede averiguar cómo afecta a un organismo; en cambio, a un investigador biomédico se le pide que busque un medicamento para tratar cierta enfermedad.

Al plantearse un problema directo se da el insumo o causa y se averigua el producto o efecto; en el caso inverso, dado el producto o efecto se busca el insumo o causa. En ambos casos se usan o inventan hipótesis que relacionan las causas con los efectos. Obviamente, los problemas inversos son más difíciles que los directos. No debería extrañar, pues, que se los ataque y resuelva de manera menos rigurosa.

Pero las diferencias más obvias entre la investigación básica y la técnica son morales y sociales. El conocimiento puro, en sí mismo, es neutral.

Sólo quien le busca aplicación práctica se enfrenta con problemas morales, ya que ciertas alteraciones en el estilo de vida perjudican a algunos mientras que benefician a otros. ¿Acatará el técnico las instrucciones de su empleador aun cuando éste le pida que diseñe una cosa o un proceso socialmente dañino? El científico puede quemarse la mano, pero el técnico también puede quemarse la conciencia.

Explorar y explicar

Exploramos cosas e ideas para describirlas, explicarlas o usarlas. La

gnoseología es el estudio de las maneras de explorar. También se la

llama «teoría del conocimiento», pero por ahora no es una teoría sino

más bien un montón de opiniones más o menos fundadas, es decir, más

o menos acordes con la práctica del conocer vulgar, científico, técnico,

o humanístico.

Lo primero que hay que averiguar es qué clase de entidad puede

conocer. La psicología, la etología y la neurociencia responden que los

cerebros de animales bastante evolucionados pueden conocer:

seguramente los mamíferos y aves, quizá también otros.

Una vez admitido que lo que conoce es el cerebro de algún tipo, y no el

alma o espíritu inmaterial, cabe preguntar en qué consiste conocer. Una

respuesta simple es que conocer es aprender o haber aprendido y

recordado algo. A su vez, aprender es, en términos neuronales, reforzar

las conexiones entre las neuronas que constituyen sistemas neuronales

en la corteza cerebral. Y desaprender, u olvidar, consiste en el

debilitamiento de dichas conexiones, por ejemplo, por desuso. Esta tesis

del uso y desuso fue formulada hace más de un siglo por Tanzi y

Lugaro, recogida por Ramón y Cajal, redescubierta y refinada por

Donald Hebb, y confirmada experimentalmente en el curso del último

medio siglo.

En resolución, sé lo que he aprendido menos lo que he olvidado. Y lo

que he aprendido no es más ni menos que una colección de

reconfiguraciones neuronales. Las reconfiguraciones neuronales pueden

ser espontáneas o provocadas por estímulos exteriores. Aprendemos

pensando por nuestra cuenta, así como percibiendo y actuando.

Aprendemos sobre todo cuando intentamos resolver problemas que nos

interesan (no en vano la corteza cerebral interactúa con el llamado

sistema límbico, el órgano de las emociones, y con el sistema

endocrino).

Curiosamente, la noción misma de problema ha sido descuidada por

casi todos los filósofos, psicólogos y expertos en computación. Aunque

he propuesto un esbozo de lógica y semántica de los problemas, aquí me limitaré a examinar un problema agudo de las ciencias sociales.

Ninguno de los teóricos de las ciencias sociales, ni los intuicionistas o

interpretivistas como Clifford Geertz, ni los miembros de la escuela de

la elección racional, se ha percatado del tipo de problemas que ellos

mismos han abordado ni de su magnitud. Sostengo que han atacado mayormente

problemas mal planteados. Veamos por qué.

El estudioso de lo social puede observar la conducta de individuos o

sistemas sociales en determinadas circunstancias. No tiene acceso

directo a las motivaciones de los individuos ni a los mecanismos de los

sistemas. Por consiguiente, tiene que adivinar las motivaciones o los

mecanismos: tiene que hacer hipótesis. Los interpretivistas llaman

«interpretaciones» a dichas hipótesis, porque sostienen que la materia

social es un texto o parecida a un texto; por esto se llaman a sí mismos

«hermenéuticos». Y los teóricos de la elección racional suponen que la

motivación es igual para todos en todas las circunstancias, a saber,

maximizar las utilidades esperadas, independientemente de

compromisos y escrúpulos.

Ni unos ni otros se proponen averiguar cómo son las cosas: los secuaces

de ambas escuelas proceden a priori. Las diferencias son que, mientras

los interpretivistas o hermenéuticos proceden caso por caso y no

imputan racionalidad al agente, los teóricos de la elección racional

tratan todos los casos por igual, al imputar al agente «racionalidad»

instrumental o económica, o sea, egoísmo. Ambos son, pues, aprioristas

y, por lo tanto, no son científicos.

El científico social que se propone averiguar cómo son las cosas en

realidad empieza por advertir que hay dos tipos básicos de problemas:

directos e inversos. Por ejemplo, calcular la suma de tres dígitos es un

problema directo que tiene una única solución; en cambio, descomponer

un número entero mayor que 2 es un problema inverso con más de una

solución. Casi todos los algoritmos o reglas mecánicas sirven para

resolver problemas directos. En los estudios sociales, los problemas

directos e inversos más sencillos y bien planteados tienen estas formas:

Directo Dada una situación, encontrar la conducta: C = MS.

Inverso Dada una conducta, encontrar la situación: S = M-1C

donde C = conducta, S = situación o circunstancia, M = motivación o mecanismo (imagínense C y S como matrices columnas

y M como matriz cuadrada)

Ahora bien, un problema puede estar bien o mal planteado. Un

problema mal planteado tiene un número insuficiente de datos (por

ejemplo, más variables que ecuaciones). En el caso de los estudios

sociales abundan los problemas mal planteados, tales como:

Dada C, encontrar M y S, y

Dada S, encontrar M y C

Por ejemplo, un historiador dispone de documentos acerca del resultado

de una campaña política o económica, pero no sabe a ciencia cierta qué

la causó. Tiene que adivinar tanto la situación inicial como los

mecanismos (políticos, económicos y culturales), o bien puede conocer

a grandes rasgos las circunstancias iniciales, pero aun no disponer de

datos sobre los resultados del proceso porque algunos de ellos aún no

han aparecido (como el Tratado de Versalles en 1930 y la

«reingeniería» de comienzos de la década de 1990).

Si es científico, el estudioso de lo social procurará buscar más datos,

ensayará varias hipótesis acerca de mecanismos posibles y elegirá la que

mejor se ajuste a los datos. No se contentará con relatos, ni con

fantasías, ni con la hipótesis única de la maximización de las utilidades

esperadas. Empleará tácitamente una gnoseología realista.

Significado y verdad

Todo predicado tiene algún sentido (contenido o connotación) y se refiere a algo (denotación). Por ejemplo, el sentido del predicado «cruel» es «que se deleita en dañar a un ser viviente» y los referentes de este predicado somos los seres humanos. En cambio, el sentido del predicado «tía» es «hermana de padre o madre» y su clase de referencia es la clase de todos los animales que se reproducen sexualmente.

Defino el significado de un predicado P como su sentido junto con su clase de referencia. Es decir, Sig P = áS(P), R(P)ñ. Para hallar el sentido de un predicado hay que averiguar cómo se define o, en caso de no ser definido, cómo está relacionado con los predicados que lo determinan.

En cambio, para saber a qué se refiere un predicado hay que analizar el dominio de la función. Por ejemplo, el predicado binario «jugar con» se refiere tanto a vertebrados superiores como a juguetes. O sea, la clase de referencia del predicado J: A ´B ® P es R(J) = A È B, o sea, la suma lógica de A y B. En general, la clase de referencia del predicado n-ario

Q: A ´ B ´ ... ´ N ® P es R(Q) = A È B È ... È N.

Las proposiciones heredan las propiedades semánticas de los predicados que figuran en ellas. Por ejemplo, el sentido del teorema de Pitágoras es el conjunto de las proposiciones que lo demuestran y de las que se siguen lógicamente de él, y su clase de referencia es el conjunto de los triángulos planos rectángulos.

¿Para qué sirve la teoría semántica que acabo de bosquejar? Para resolver numerosos problemas científico-filosóficos. Por ejemplo,

analizando los conceptos clásico y relativista de masa se ve que ambos se refieren a cuerpos y partículas, aunque el relativista es más amplio, ya que también se refiere al conjunto de los referenciales. Esto basta

para refutar la popular tesis de Kuhn y Feyerabend según la cual las físicas clásica y relativista son «inconmensurables» (incomparables) entre sí. Este resultado es importante porque refuta la tesis irracionalista

de que, puesto que las teorías rivales son incomparables entre sí, el cambio de teorías es tan infundado como la conversión religiosa.

La tesis sociologista, de que toda fórmula científica tiene un contenido social o incluso es un arma de poder político, se refuta de manera parecida. Mi teoría semántica confirma la idea tradicional de que solamente las ciencias sociales se refieren a hechos sociales. En cambio, la matemática se refiere a objetos matemáticos, las ciencias naturales a cosas naturales, las técnicas a objetos artificiales, etc. El concepto de poder político sólo tiene sentido en contextos sociales.

No es de extrañar que mi semántica sirva para resolver problemas filosófico-científicos, ya que se originó en mi tentativa de resolver la controversia sobre los referentes de la mecánica cuántica. Resulta que, contrariamente a la tesis subjetivista (o de Copenhague), esa teoría no se refiere a observaciones sino a cosas físicas tales como electrones y fotones. En otras palabras, confirma el realismo científico. También es

falso que la evolución biológica y otros procesos biológicos, tales como las enfermedades, sean construcciones sociales a la par con las corporaciones y las universidades. En definitiva, la filosofía y la sociología de la ciencia sociologistas-constructivistas-relativistas, tan de moda, son

demostrablemente falsas.

Finalmente, demos un vistazo a la verdad o, mejor dicho, a los conceptos de verdad. Distingo los siguientes:

· Lógica: tautología (tal como «No-(p & no-p)» o tautonimia (tal como «Libre = no constreñido»).

· Matemática: postulada o deducible en una teoría.

· Fáctica: adecuación a los hechos referidos (tal como «Hay pobres»).

· Moral: adecuación a las normas morales adoptadas (tal como «La pobreza degrada»).

· Artística: atribuida en una obra de arte (tal como «Don Quijote es un loco lindo»).

En todos estos casos, el predicado «es verdadero» se atribuye a una proposición (igualar la verdad a la cosa, como hacen Heidegger y otros hombres primitivos, es un error elemental). Dado que los predicados son funciones, resulta que la atribución de valor de verdad es una función de la forma V: Q ® {0, 1} o, en general, V: Q ® [0, 1], donde [0,1] es el intervalo unitario de números reales. Esta función V puede componerse con la función P de predicación, formándose así el diagrama conmutativo P°V: W ® [0, 1], que manda del universo del discurso a los valores de verdad (éste es el análisis de Frege, diferente del mío).

Pasemos ahora de la semántica a su segunda hermana, la gnoseología o teoría del conocimiento (la primera hermana es la lógica).

Oración y proposición

Una proposición, tal como la afirmación o negación de que hay gente en determinado salón, puede expresarse en cualquiera de las 6.000 lenguas que se hablan en esta época. A cada proposición le corresponde por lo

menos una oración. Pero la recíproca no es verdadera. Por ejemplo, la oración de Heidegger «El tiempo es la maduración de la temporalidad» es una oración pero, puesto que carece de significado, no expresa una

proposición. No tiene sentido y, por lo tanto, no es verdadera ni falsa.

Vale tanto como valdría «El espacio es la putrefacción de la espacialidad». Es propia de un escribidor, no de un pensador serio.

Las oraciones, lo mismo que las preguntas, órdenes e interjecciones, son entidades materiales: son señales o signos. En cambio las proposiciones, como los conceptos, son objetos ideales o abstractos. Si se parte de las oraciones se puede definir la clase de equivalencia de todas las oraciones que expresan la misma proposición. Si en cambio se parte de las proposiciones, se puede definir una oración como la expresión

lingüística que designa la proposición correspondiente.

Las proposiciones más simples son las compuestas por un sujeto y un predicado o atributo, tal como «El bebé juega», o Jb. A su vez, el predicado J puede concebirse como una función que aplica el conjunto

A de animales (más precisamente, vertebrados superiores) al conjunto de las proposiciones de la forma «x juega», donde x es un miembro arbitrario de A. Es decir, J: A ® P, donde P es el conjunto de proposiciones que acabo de describir.

Por poco que se analice la proposición anterior se comprueba que es más compleja. En efecto, quien juega lo hace con algo, por ejemplo, una pelota. Expresada en símbolos lógicos se lee Jbp, donde J es ahora un

predicado binario o relación diádica. Esta nueva J es una función de la forma J: A ´ B ® P, donde B es el conjunto de los juguetes y ´ designa el producto cartesiano, es decir, el conjunto de todos los pares ordenados áa, bñ, donde aÎA y bÎB. En general, un predicado n-ádico es de la forma Q: A ´ B ´ ... ´ N ® P.

Ontología

ser y devenir

La ontología o metafísica es el núcleo de la filosofía, ya que se ocupa nada menos que del mundo: de las cosas y sus cambios.

Lamentablemente, la metafísica tradicional es a la vez especulativa y poco clara, es decir, no es científica ni precisa, al grado de que según los positivistas, la expresión «metafísica científica» es contradictoria. Sin embargo, es posible construir una ontología o metafísica clara, compatible con la ciencia, e incluso de utilidad para ésta. Se propusieron esta tarea, cada cual a su manera, Bernard Bolzano, Charles Sanders Peirce y José Ingenieros. Para llevarla a cabo basta con purgar la metafísica de sus residuos teológicos, poner al descubierto las raíces metafísicas de la ciencia, matematizar los conceptos metafísicos clave, y enunciar y sistematizar algunos principios generales referentes al mundo real y compatibles con la ciencia del momento. Veamos algunos ejemplos centrales.

Sinopsis

El mundo real es material y cambiante. Está compuesto por cosas concretas que se agrupan en sistemas de varias clases: físicos, orgánicos, sociales, etc. Todo sistema emerge o se degrada en el curso de un proceso.

Esta ontología o visión del mundo tiene, pues, las características siguientes: es materialista, dinamicista, emergentista, sistemista, cientificista y exacta. Esta ontología se opone, pues, a las metafísicas más populares, que son inexactas, acientíficas o incluso anticientíficas, holistas o individualistas, e idealistas o dualistas. En cambio, esta nueva ontología es compatible con la ciencia y con la técnica, a las que favorece y de cuyos avances puede enriquecerse. Esto nos lleva al problema del conocimiento.

Individuo y sociedad

No hay individuos aislados. Incluso el ermitaño depende de sus devotos para su subsistencia. Cada uno de nosotros pertenece a varios sistemas sociales: familia, círculo de amigos, red de conocidos, empresa, club, escuela, iglesia, partido, etc. Los individuos se juntan en sistemas sociales para lograr fines inalcanzables en soledad: compañía, ayuda, aprendizaje, intercambio de cosas e ideas, fabricación de mercancías, poder político, etcétera.

Los sistemas sociales poseen propiedades que no tienen los individuos que los constituyen; ejemplos: cohesión (o conflicto), estabilidad (o inestabilidad), división del trabajo, competitividad e historia del sistema (a diferencia de las biografías de sus integrantes). Los individualistas

niegan estas propiedades sistémicas o emergentes. Por lo tanto, no pueden explicar por qué la gente monta y desmonta sistemas sociales;

tampoco explican la existencia y deseabilidad de valores impersonales o sociales, tales como solidaridad, justicia, participación popular en

asuntos de interés público, democracia y paz.

Aunque lo que acabo de decir es una perogrullada, las dos principales filosofías de lo social lo niegan: el individualismo y el holismo o

globalismo. Los individualistas exageran la actividad del individuo y minimizan las interacciones sociales. Ven los árboles pero se les escapa

el bosque. En cambio, los holistas tratan a la sociedad como una totalidad dentro de la cual el individuo no es sino un átomo insignificante. Ven el bosque pero no distinguen los árboles.

Los sistemistas ven tanto el bosque como los árboles. Explican el estado del bosque por el de los árboles y sus interacciones, y, a su vez, explican el estado de los árboles por el lugar que ocupan en el bosque. Por ejemplo, a una familia le va bien si cada uno de sus miembros le aporta algo: si, superando su egoísmo natural, resuelven los conflictos entre ellos porque les interesa mantener unida la familia. Otro ejemplo: una empresa prospera porque está constituida por individuos competentes y trabajadores, y a su vez la prosperidad de la empresa contribuye a la satisfacción en el trabajo. (Naturalmente, tanto la familia como la empresa dependen de sus entornos: ambas sufren, o incluso se desintegran, si se produce una grave crisis económica o política.)

Cuando algo anda mal en la familia o en la empresa, hay que corregir la conducta de un individuo, modificar el entorno, cambiar la organización o ajustar los mecanismos que hacen que el sistema funcione ineficientemente. O sea, tanto el funcionamiento como la disfunción de un sistema dependen de cuatro aspectos: composición, entorno, estructura y mecanismo. El sistemista tendrá más éxito que el individualista o el holista en la tarea de corregir deficiencias o errores, simplemente porque no se le escapará ninguno de los cuatro aspectos.

Vida y mente

La filosofía pura no puede lidiar con el problema «¿Qué es la vida?». Este pertenece a la intersección de la filosofía con la biología. Se le han dado básicamente tres respuestas: una vitalista, una mecanicista y una organicista (o biosistemista). El vitalismo es un caso especial del idealismo, ya que sostiene que lo que caracteriza a la vida es una entidad inmaterial (entelequia, élan vital, fuerza constructiva, etc.).

Ningún biólogo contemporáneo, por religioso que sea, se atreve a adoptar el vitalismo, ya que éste no es comprobable científicamente ni es compatible con la biología molecular ni con la evolución. El mecanicismo sostiene que los seres vivos no son sino entidades físicas complicadas: niega que haya una línea divisoria neta entre lo vivo y lo no vivo. Pero esto no explica por qué la biología posee conceptos peculiares, tales como los de descendencia, aptitud darwiniana, mutación y selección natural.

El biosistemismo empieza por admitir la peculiaridad de lo viviente.

Los seres vivos son sistemas fisicoquímicos, pero la recíproca es falsa: la mayoría de los sistemas fisicoquímicos no son vivientes. En otras palabras, la vida es una propiedad emergente de sistemas materiales. Se sabe que las primeras células emergieron en nuestro planeta hace unos 3.000 millones de años, y se supone que se formaron al cabo de un largo y lento proceso gradual de autoensamble o autoorganización. También se sabe que todas las células, de todas las especies, tienen rasgos básicos comunes, como corresponde a cosas con un origen común: están envueltas por una membrana semipermeable compuesta por lípidos; están compuestas por proteínas, ácidos nucleicos, lípidos, agua, etc.; metabolizan, y casi todas pueden dividirse. Además, todas las bioespecies tienen miembros que pueden reproducirse.

Los individuos adultos de algunas especies poseen un subsistema, el sistema nervioso central, capaz de sufrir procesos muy especiales: los mentales. Acabo de contrabandear una hipótesis filosófica, a saber, que lo mental es cerebral. Esta es la respuesta materialista al antiguo problema mente-cuerpo. Sus rivales son la tesis idealista («Todo cuanto existe es ideal o espiritual») y la tesis dualista («Lo mental, anímico o espiritual es diferente de lo corpóreo»). Las tesis idealista y dualista forman parte de la religión, del idealismo filosófico y de negocios tales como el psicoanálisis y la llamada New Age. No son tesis científicas, pues, por hipótesis, el alma o mente, por ser inmaterial, es inaccesible a los instrumentos de observación y medición. En cambio, la tesis materialista es la que impele las investigaciones en psicobiología o neurociencia cognoscitiva, que todos los días está arrojando nuevos resultados sensacionales, en tanto que sus rivales permanecen estancados.

Espacio y tiempo

Si desaparecieran todas las cosas, ¿subsistiría el espacio? Según el sentido común y la teoría absolutista del espacio, sí. Según la teoría relacional del espacio, no. Según ésta, el espacio es la estructura básica de la colección de las cosas: es un conjunto de relaciones y, como tal, no existe sin los objetos relacionados, que son las cosas. Para que haya espacio, el mundo debe contener por lo menos dos cosas.

Si cesara todo cambio, ¿subsistiría el tiempo? Según el sentido común y la teoría absolutista del tiempo, sí. Según la teoría relacional del tiempo, no. Según ésta, el tiempo es la estructura básica de la colección de acontecimientos. Para que haya tiempo, debe haber cosas capaces de cambiar, es decir, entidades materiales.

¿Cómo elegir entre las dos teorías rivales, la absolutista y la relacional?

El filósofo cientificista se remite a la ciencia de su tiempo y en particular a la física relativista, por ser la que ha modificado más

profundamente los conceptos de espacio y tiempo. La teoría especial de la relatividad enseña que el espacio y el tiempo, aunque distinguibles, son inseparables: nos habla del espaciotiempo (por ejemplo, la distancia espaciotemporal entre dos cosas es la misma relativamente a todos los sistemas de referencia). Y la teoría general de la relatividad enseña que la estructura del espaciotiempo está determinada por la distribución de la materia, esto es, los cuerpos, corpúsculos y campos no gravitatorios (la ecuación básica es «G = kT», donde G es el tensor métrico, que describe la estructura del espaciotiempo, y T es el tensor materia, que describe la distribución de la materia; donde no hay materia, T = 0, y por lo tanto G = 0, ecuación que describe un espaciotiempo puramente matemático, es decir, ficticio). Estos resultados confirman el axioma A2, según el cual todo lo real es cambiante, y son compatibles con la teoría relacional del espaciotiempo. Esta compatibilidad de nuestra ontología con la teoría de la gravitación sugiere que es científica antes que especulativa.

Sistema y emergencia

Un objeto complejo cuyas partes o componentes están ligados entre sí se llama «sistema».

Todo sistema puede caracterizarse por su composición, entorno, estructura (conjunto de relaciones entre sus componentes, y entre éstos y su entorno) y mecanismo, o proceso que hace que el sistema funcione como tal. Por ejemplo, los componentes de una escuela son sus alumnos, maestros, administradores y empleados. El entorno inmediato de la escuela es el barrio o distrito donde se ubica; la estructura de la escuela está constituida por las relaciones de aprender, administrar, limpiar, etc., y el mecanismo típico de la escuela es el proceso de aprendizaje.

El modelo más simple de un sistema de cualquier tipo es esta cuaterna:

M = ácomposición, entorno, estructura, mecanismo

Una característica de todo sistema es que posee propiedades de las que carecen sus componentes. Ejemplos: la energía de disociación de una molécula, la vida de una célula, la división del trabajo en una empresa, el valor de verdad de una proposición (cuyos conceptos componentes no son verdaderos ni falsos). Estas propiedades sistémicas se llaman emergentes. El proceso al cabo del cual emerge una propiedad nueva se llama «emergencia». Su dual, el que se caracteriza por la pérdida de una propiedad, se llama «sumersión».

La diversidad cualitativa del mundo es enorme. Sin embargo, las cosas pueden agruparse en media docena de categorías o niveles:

1) físico,

2) químico (reactores químicos),

3) biológico (organismos),

4) social (sistemas sociales),

5) técnico (artefactos),

6) semiótico (sistemas de signos).

Ahora estamos en condiciones de enunciar cuatro nuevos principios característicos del materialismo sistémico, dinamicista y emergentista:

A5 Todos los objetos, sean materiales, conceptuales o semióticos, son sistemas o componentes (actuales o potenciales) de sistemas.

A6 Todos los sistemas poseen propiedades emergentes.

A7 Todos los sistemas se forman por agregación o combinación de objetos más simples.

A7 Todas las cosas de cada nivel están compuestas por cosas pertenecientes a niveles inferiores

Sistemas

Componentes

Tipos

Semióticos

Los sistemas semióticos están compuestos por signos, que son cosas materiales artificiales y que, por convención, denotan, ya otras cosas, ya conceptos; ejemplos: señales de caminos, lenguas, textos, diagramas.

Conceptuales

Los sistemas conceptuales están compuestos exclusivamente por conceptos; ejemplos: proposiciones, clasificaciones, teorías.

Materiales

Los sistemas materiales están compuestos exclusivamente por cosas materiales; ejemplos: átomos, células, empresas.

Existencia y cambio

A partir de Russell, los filósofos contemporáneos han sostenido que el cuantificador existencial $, definido en el cálculo de predicados, formaliza el concepto de existencia (si se toma el cuantificador universal " como primitivo, se puede estipular que, para todo predicado F, $xFx =df Ø"x ØFx). Esto es verdad en matemáticas pero no en ontología ni en las ciencias de hechos. En estas disciplinas, la existencia es una propiedad, y nada menos que la más importante de todas.

Además, la existencia puede ser ideal o material. El cuantificador existencial no nos dice de qué manera existe un objeto: si conceptual o concretamente; es ontológicamente ambiguo.

El hueco ontológico que deja la lógica puede llenarse con exactitud como sigue. Sea U un universo del discurso cualquiera. Llamemos cU a la función característica de U [χU (x) = 1 si xÎU, y 0 si xÏU].

Estipulamos que «cU (x) = 1» es lo mismo que «EUx», donde esta última expresión se interpreta «x existe en U». En otras palabras, el predicado de existencia (contextual) es la función EU: U ® P, donde P designa el conjunto de todas las proposiciones existenciales, tales que, si xÎU, EU(x) = [cU(x) = 1]. Si el universo U se reduce a un conjunto C de objetos ideales, EC designa el concepto de existencia ideal (o formal).

En cambio, si U es una colección M de objetos materiales, EM designa el concepto de existencia material o real. De esta manera se pueden formalizar enunciados como el siguiente, el que estaría mal formado si se confundiese «existe» con «algunos». «Algunos objetos existen realmente» se formaliza así: $x EMx.

Acabo de introducir de contrabando el concepto de materialidad. Es hora de definirlo. Empecemos por observar que los objetos ideales (o conceptuales) son inmutables. Por ejemplo, el número 1 no se transforma en el número 2; lo que puede ocurrir es que una célula se divida en dos. En cambio, los objetos materiales son mudables; ni siquiera los más duraderos son inmutables (todo esto lo sabía Platón).

Postulemos, pues, que la propiedad universal de los objetos materiales es su mutabilidad. Es decir, A2 Para todo x: (x es material =df x es cambiable) En otras palabras, ser es devenir.

Ahora bien, todo lo que cambia o puede cambiar posee energía (o sea, los conceptos de mutabilidad y energía son coextensos, aunque no cointensos). Cada rama de la física caracteriza por lo menos un concepto de energía: cinética o potencial, térmica o elástica, nuclear o electromagnética, etc. Pero el concepto general de energía es ontológico, no físico, de modo que cuando los físicos enuncian el concepto general de conservación de la energía, hacen metafísica sin saberlo.

En definitiva, A3 Para todo x: (x es material =df x posee energía)

Y ahora viene el postulado materialista:

A4 Todo cuanto existe realmente es material.

Es decir, Para todo x: (x es real =df x es material) En otras palabras, el mundo real es material. Este principio no niega la existencia de ideas; sólo niega su existencia autónoma, es decir, independiente de los sujetos pensantes, que son cosas materiales (aunque dotadas de propiedades tanto suprafísicas como físicas).

Las propiedades de las cosas concretas son muy diferentes de las propiedades de las ideas tomadas en sí mismas, es decir, independientemente de los ideantes y sus circunstancias. Las propiedades de las cosas concretas pueden agruparse de varias maneras según sean básicas o derivadas, esenciales o accidentales, simples o compuestas, primarias (objetivas) o secundarias (dependientes del conocedor), de composición y de cambio, etc. Todas estas distinciones son clásicas. El aporte original de mi Treatise on Basic Philosophy a estas distinciones consiste en la exactificación de los conceptos correspondientes y en algunas tesis. Entre éstas figuran las siguientes:

a) hay leyes objetivas, es decir, pautas a las que se ajustan las cosas, independientemente de nuestra actividad cognoscitiva;

b) las leyes objetivas de las cosas son propiedades esenciales de ellas;

c) el principio de Lucrecio: nada sale de la nada y nada se convierte en nada, y

d) el principio de legalidad: todo cuanto acontece satisface por lo menos una ley (o sea, no hay milagros).

Objetos y propiedades

En física aprendemos que la carga eléctrica total de un sistema compuesto de dos cuerpos es igual a la suma de las cargas parciales. O sea, Q(a *b) = Q(a) + Q(b), donde «a *b» denota la suma física, yuxtaposición o concatenación de los cuerpos nombrados «a» y «b». La noción de concatenación es filosófica, y en particular ontológica, por ser común a todas las ciencias de hechos, desde la física hasta la lingüística.

Esta noción intuitiva puede matematizarse como sigue. Considérese el sistema relacional áS, *ñ compuesto por un conjunto S arbitrario y una operación binaria * en S que satisface una sola condición: la de ser asociativa en S. Es decir, si los individuos a, b y c pertenecen a S, entonces a * (b * c) = (a * b) * c. Tal conjunto estructurado, llamado semigrupo, es un objeto algebraico muy simple y básico. Nos permite exactificar las nociones de suma física y de parte de una cosa. En efecto, diremos que el objeto a es parte del objeto b si la concatenación de a con b es igual a b. En símbolos: a < b =df a * b = b, donde «=df» se lee «igual por definición».

El conjunto S nos permite introducir las nociones de propiedad y de objeto. Una propiedad, tal como la de ser pesado, se representa mediante un atributo o predicado. Las propiedades se poseen realmente; los atributos se atribuyen verdadera o falsamente. A su vez, un predicado (unario) puede concebirse como una función P que aparea cada elemento x de S con una proposición que dice algo acerca de x, o sea, P: S ® Proposiciones que contienen a P y son de la forma Px, donde el individuo x pertenece al conjunto S. La generalización a relaciones (propiedades n-arias) es obvia. Por ejemplo, la relación (o propiedad binaria) de escribir se formaliza así: E: A ´ T ® P, donde A es el conjunto de autores, T el de textos, y P el de proposiciones de la forma Eat, donde a está en A y t en T. En general, el dominio de una propiedad n-aria es de la forma A ´ B ´ ... N, donde ´ designa el producto cartesiano de n conjuntos.

Un objeto puede definirse como un individuo junto con sus propiedades.

Es decir, c = áx, Pñ, donde x es un elemento de S y P es el conjunto de las propiedades conocidas de x. El principio subyacente es:

A1 Toda propiedad lo es de algún objeto, y no hay objetos sin propiedades.

La definición de «objeto» que acabo de dar es abstracta; más adelante la especificaremos para elucidar la noción de cosa concreta. Pero antes debemos recordar la distinción capital entre propiedades intrínsecas, tales como el número de componentes de una cosa, y propiedades relacionales, tales como la velocidad (cuyo valor depende del sistema de referencia). La mera existencia de cosas con propiedades intrínsecas conocidas aunque imperceptibles, tales como el número atómico, la carga eléctrica y la entropía, falsea la tesis kantiana y positivista de que no podemos conocer las cosas en sí, con sus propiedades intrínsecas: que sólo podemos conocer las propiedades relacionales y en particular las secundarias, es decir, las dependientes del sujeto (o explorador, como prefiero llamarlo). Una mera referencia a la física elemental basta, pues, para derribar una metafísica influyente como el fenomenismo, centrada en el sujeto o conocedor. Esta es una de las ventajas de la

filosofía científica: que nos permite desembarazarnos de golpe de una pesada carga tradicional que ha obstaculizado el avance del conocimiento.

INTRODUCCIÓN

Crisis y reconstrucción de la filosofía

Se dice, y con razón, que la filosofía está en crisis. No queda escuela filosófica en pie, escasean las nuevas ideas filosóficas profundas y aún más los sistemas de ideas filosóficas. Las filosofías que se enseñan en las universidades están escolastizadas y han dejado de inspirar a las ciencias. Mientras tanto, las ciencias y las técnicas siguen avanzando vertiginosamente.

Todo está cambiando, menos la filosofía. Los tomistas siguen comentando a Tomás y al Estagirita. Los marxistas siguen discutiendo los textos de sus clásicos. De los positivistas lógicos no queda sino el recuerdo. Doctrinas que fueron innovadoras son hoy conservadoras.

Los analíticos han atomizado la filosofía y la han tornado superficial, incluso frívola, al eludir los grandes problemas de la filosofía tradicional e ignorar los nuevos problemas suscitados por la ciencia, la técnica y la sociedad. Este es el legado de Wittgenstein.

Los antianalíticos han hecho algo mucho peor: han reemplazado la investigación filosófica por una retórica dogmática, tan opaca que resulta casi ilegible. De paso han mutilado el idioma alemán y las lenguas a las que se ha «traducido» a los antianalíticos germanos. Este es el legado de Husserl y Heidegger.

La crisis de la filosofía es tan grave que ha llegado a hablarse de su muerte. Hay incluso toda una industria de la muerte de la filosofía. Esta empresa me parece tonta y deshonesta, pues no se puede prescindir de la filosofía: sólo se puede prescindir de la mala filosofía. Y nadie tiene derecho a cobrar un salario por proclamar la muerte de su propia disciplina. De modo que si la filosofía está en ruinas, hay que poner cerebros a la obra y reconstruirla.

Esto es, precisamente, lo que he intentado al escribir los ocho tomos de mi Treatise on Basic Philosophy (1974-1989). Mis otros libros han confluido a ese tratado o se han originado en él. Para una exposición completa de mi tratado son necesarios entre seis y ocho cuatrimestres académicos. En el reducido espacio de esta obra no podré sino invitar a los lectores a que me acompañen en una gira turística, brevísima, algo desordenada, y seguramente irritante para muchos.

PROLOGO

Desafíos filosóficos que la ciencia y la técnica del siglo XX plantean al filósofo

No sabemos ni podemos saber cómo serán la ciencia y la técnica en el nuevo siglo. No podemos saberlo porque la invención radical es tan impredecible como el accidente y porque la espontaneidad no es programable. Sin embargo, si extrapolamos las tendencias recientes podemos prever que la ciencia y la técnica seguirán avanzando.

También podemos profetizar que, si se permite que sigan avanzando, producirán descubrimientos e invenciones, tanto teóricos como prácticos, asombrosos e imprevisibles. Parafraseando lo que Pablo de Tarso dijera acerca de su dios: «Ni ojo vio, ni oído oyó, ni el corazón del hombre jamás imaginó las maravillas que la ciencia y la técnica tienen reservadas para quienes las aman.»

¿Qué desafíos plantearán a los filósofos esas novedades por venir? ¿Qué responsabilidades tendrán que asumir? Puesto que no conocemos las futuras novedades, tampoco sabemos qué desafíos plantearán a los filósofos. Por esto me limitaré al presente. Más precisamente, me limitaré a mencionar diez desafíos que, presumiblemente, seguirán en pie durante unos cuantos años.

10.

Propiciar el enfoque científico de los problemas sociales más acuciantes

a menudo descuidados por los especialistas o abordados de manera unilateral, como ocurre con los problemas del subdesarrollo, el machismo y la violencia. Es decir, fomentar el cultivo de las sociotécnicas y de sus combinaciones, como una alternativa racional y eficiente a la improvisación y la demagogia.

9.

Desarrollar la filosofía práctica

a la luz de las ciencias sociales y con ayuda de métodos formales, para precisar sus conceptos y acercarla a la vida. Por ejemplo, examinar los problemas morales que plantean las políticas macroeconómicas; relacionar entre sí la praxiología con la ética, y ésta con la axiología, y elaborar principios éticos que, en lugar de ser aplicables solamente a ángeles, respondan a las necesidades y aspiraciones de gente de carne y hueso.

8.

Propiciar el acercamiento mutuo de las ciencias

señalar que, si dos disciplinas tienen referentes comunes, entonces cabe unirlas, ya sea en una multidisciplina (suma lógica) o en una interdisciplina (producto lógico). Por ejemplo, mostrar que la mera existencia de ciencias biosociales, tales como la demografía, la antropología y la psicología, falsea la dicotomía kantiana entre ciencias naturales y ciencias culturales. Otro ejemplo: resaltar la necesidad de estudiar problemas interdisciplinarios, tales como la relación entre salud y clase social, y la distribución de ingresos.

7.

Engordar a la filosofía exacta

alimentándola con problemas interesantes y arduos, tales como formular una definición correcta del azar; analizar la imbricación mutua de azar y causalidad; estudiar la conveniencia de considerar el vacío como una especie de materia; proponer caracterizaciones exactas del concepto de mente (o función mental); investigar la ontología de lo social como nivel caracterizado por propiedades suprabiológicas, y formular una teoría adecuada de la verdad factual como adecuación de una proposición a su referente.

6.

Retomar los ambiciosos proyectos de construir una metafísica científica

formulados por el norteamericano Charles S. Peirce en 1891 y el argentino José Ingenieros en 1910, cuando la metafísica tradicional estaba desacreditada precisamente porque se la veía como la antítesis de la ciencia.

5.

Poner al día la filosofía de la ciencia y de la técnica

aprender de éstas al punto de poder participar constructivamente en los debates filosóficos que se dan actualmente en las comunidades científicas y técnicas. Ejemplos de estos debates: averiguar si la teoría cuántica refuta al realismo; si las bioespecies y los linajes biológicos son individuos o conjuntos; si la selección natural consiste en la variación de las frecuencias génicas o en la eliminación de los menos aptos o afortunados; si la psicología está siendo absorbida por la neurociencia, o más bien fusionada con ella; si existe la sociedad o no es más que el plural de «individuo»; si se justifica el empleo de la energía nuclear en regiones carentes de fuentes energéticas tradicionales; si la investigación técnica, a diferencia de la básica, debería ser sometida al control democrático.

4.

Criticar el posmodernismo por renunciar a los valores de la ilustración

Empezando por la racionalidad, el escepticismo moderado (metodológico), la objetividad, la búsqueda de la verdad y la propiedad común del conocimiento básico (a diferencia del técnico). Es preciso denunciar el posmodernismo como una estafa cultural que, de triunfar, nos retrotraería un milenio. En los recintos académicos no hay que tolerar a los enemigos de la razón y la objetividad, tales como el irracionalismo, el relativismo, la filosofía confesional y la llamada

«filosofía feminista», que desacredita al feminismo auténtico, movimiento de emancipación que necesita de las ciencias para triunfar.

3.

Criticar las seudociencias y las seudotécnicas

tales como el psicoanálisis, la parapsicología, la homeopatía y la microeconomía neoclásica, no sólo porque afirman falsedades, sino también porque estafan a sus consumidores. Esta tarea exige, como mínimo, que se caracterice a la ciencia como una trinidad compuesta por la investigación, el saber y una comunidad de investigadores que inician o continúan una tradición de búsqueda desinteresada de la verdad en la cual se entrelaza la rivalidad con la cooperación.

2

Defender la libertad de la investigación básica contra las restricciones impuestas por dogmas ideológicos

En particular, defender la biología y la cosmología evolucionistas de los ataques creacionistas, y defender las ciencias sociales básicas de los ataques de quienes sostienen que toda investigación social está necesariamente contaminada por alguna ideología. Hacerles ver que, aunque una investigación haya sido motivada por consideraciones ideológicas, será válida si se ajusta al método científico. En la ciencia, como en el arte, el resultado importa más que la motivación.

1

Defender la investigación básica de los ataques pragmatistas y neoliberales

Resaltar que el nuevo conocimiento científico, aunque no tenga aplicaciones prácticas inmediatas, enriquece la cultura tanto como la enriquecen el arte y las humanidades. Esta tarea de defensa de la investigación desinteresada contra los filisteos requiere, como mínimo, una clara distinción entre ciencia básica, ciencia aplicada y técnica, así como una evaluación de sus funciones respectivas en la sociedad moderna. Desgraciadamente, el sociologismo-constructivismo relativismo a la moda niega esa distinción al hablar de «tecnociencia» y afirmar que todo es construcción o convención social. Por lo tanto, lejos de hacer contribuciones positivas a la política científico-técnica, inspira una política utilitarista que exige que la pretendida «tecnociencia» sólo produzca resultados de utilidad práctica inmediata. Esto es como pedir peras al olmo.