Utopia 3.0
Notes on the utopia of the future
“Here’s to the crazy ones. The misfits, the rebels, the troublemakers, the round pegs in the square holes, the ones who see things differently. They’re not fond of rules, and they have no respect for the status quo. You can quote them, disagree with them, glorify or vilify them. About the only thing you can’t do is ignore them. Because they change things – they push the human race forward. And while some may see them as the crazy ones, we see genius. Because the people who are crazy enough to think they can change the world, are the ones who do.”
- Steve Jobs
About my ideal political system
Imagine a just political system. My imagination has led me to see Multi-State Liberalism as a just political system, and I believe it to be a self-evident truth. Multi-State Liberalism means that individuals can choose their own state, resulting in multiple states within a country. This allows people to choose their preferred state rather than living under the tyranny of democracy. This maximizes individual freedom by enabling people to live according to their values. Multi-State Liberalism would also create new opportunities and innovations in the field of creating a good state. It would result in “survival of the fittest” among the states, but with a monopoly on violence within the country to protect everyone’s rights.
This idea is radical but also self-evident, with the gap between dictatorship and democracy being just as wide as the gap between democracy and Multi-State Liberalism.
About the website
This is a website where one can view the notes I write about various topics, but it will primarily be about philosophy and art.
Below are my notes on various topics I find important. When I get an idea, I write it down. I’ve found that this method generates more and more ideas, so I don’t judge the ideas at first impulse. I review and evaluate them later, as I believe this approach enhances creativity.
The notes:
Rights, Multi-State Liberalism, and anarcho-capitalism
Here I use Rawls’ argument about “the original position”, but which I believe would develop very differently. If no one knew who they would be born as, then people would choose their own will (when I use the word will, I just mean what a person wants) and therefore not allow coercion and would choose the society that was in accordance with their will. That is, they would not be able to allow coercion because if they did, there would be a risk of being forced into liberalism or socialism, but ultimately, people would just want both options if they didn’t know if they were born as socialists or liberals.
One ought to discuss the fundamental rights of those who can feel and those who, in the future, gain the ability to have a good will. By this, I mean that they can understand something as objectively good or evil and can also create their own ethics (for example, understanding utilitarianism and how their actions affect others). If they cannot, they cannot choose their own state, as they do not yet understand that others are ends in themselves and not merely means). This is something that happens in children when they are around 12 years old (this is an open discussion, but when it happens, they have the right to choose a state). All those with a good will can never be a means to an end; there could be several reasons for this, such as that a good will is always good. Thus, it would be good to maximize all the good wills as much as possible, so we get “the greatest good will principle” or “the greatest possible freedom principle.” Therefore, if we force people to live in a political system they do not want to live in, we are using them as a means to achieve the state’s goals. Therefore, it is a fundamental right for all those with a good will that they live under anarcho capitalism so that they are ends in themselves. At least as a stepping stone towards anarcho-capitalism, we can create a Multi-State Liberalist society as I have described, which can be more feasible to achieve. More on that later.
In an anarcho-capitalist society, everything would be privatized. In contrast, a Multi-State Liberalist society would maintain a government monopoly on violence, but it would offer significantly more freedom than we currently experience. In this system, individuals could establish their own states and compete with the government without fear of being shut down. Taxation would be minimized, covering only the essential costs needed to uphold the monopoly on violence.
Every country would technically be considered anarcho-capitalist in a perfect world. However, individuals in a anarcho-capitalist country should still have the freedom to choose to live in a socialist state if they prefer. I fully support this right, provided that individuals have the option to opt out of the state, and that they consent to the “tax” or donations they contribute, as well as to the overall functioning of that state. There will be a lot of people who want to stay in America as we know it today, and that is acceptable as long as it is consensual and you have the option to leave. Initially, the ‘weirdos’ will leave America, and eventually, Americans will realize that some of these states are far superior. This could lead to reforms in America or to people leaving it to join a better state.
One could describe me as an anarcho-capitalist with reservations, as I want to see more evidence of its success in practice before fully committing to it.
The right not to be used as a means to an end should extend to nonhuman animals. It sounds radical, but actually, it is super simple. You wouldn’t want to have a knife sliced through your throat, so if we claim to follow the golden rule, then we are inconsistent if we are not vegan. I think nonhuman animals should have similar rights to those of children and have yet to hear a single good argument that would justify not being vegan. Almost all people say they are against kicking dogs, and most people will also agree that they would rather be kicked than stabbed to death. Yet, they pay people to stab nonhuman animals to death, so how is that consistent? Objectively, forcing a pig into a gas chamber where they scream for 30-60 seconds (which is what happens to pigs in animal agriculture) is much worse than kicking them. These innocent beings are as sentient as small children, and we torture and kill 3 trillion of them annually. It is, without a doubt, the worst atrocity ever committed.
If you are in doubt about how humans treat other animals, watch Dominion on YouTube.
All sentient beings should have the right not to be used as a means to an end. Therefore, abortion should be illegal once we have a reasonable certainty that the fetus has become sentient. Prior to that point, abortion should remain legal, as a non-sentient fetus cannot experience harm, have preferences, or perceive its life as going well or badly. For something to be considered bad, it must be bad for someone capable of experiencing it.
A major change I am advocating for is a radically different approach to how we treat children aged 12-18 years. From 0-12 years, we should ask ourselves if what we do for or against the child is in the child’s future interest. During this period, the child would also become increasingly more independent. I propose that nonhuman animals be treated with the same basic care and consideration as 0-12-year-old human children. Additionally, I suggest that we should treat 12-18-year-olds more like we would treat an adult in a lot of respects because they possess a good will. For what else should be “the insuperable line”?
Try to see if you can non-coercively encourage the child to do what is important or negotiate with them to see if you can make them agree, for example, if they need to learn a very important subject. I believe it is possible that future generations may view how children are treated today as unethical.
Adults in democracies don’t have the right to choose their state, but we still have more rights than children. Therefore, we can argue for extending voting rights to humans aged 12 and up. This would make the rights violations children face in democracies somewhat less severe.
Although I am an ethical pluralist, a utilitarian argument for Multi-State Liberalism or anarcho-capitalism is that people will seek their own happiness and therefore choose the state that maximizes their happiness. Consequently, people will only live in states that have maximized happiness as much as possible, while the rest will fall away.
Some argue that the state doesn’t violate your rights because you have the option to live in another country where you don’t have to pay taxes. However, I have never given explicit consent to be governed by my state. Furthermore, if I attempted to establish my own state, the government would shut me down using the threat of violence—a monopoly that doesn’t allow for competition, which contradicts the principles of freedom. Thus, the state coerces me through the threat of violence. If I were to act like the state—taking people’s money without their consent and imprisoning those who refuse to comply in a cage in my basement—most people would consider such actions unethical. So, how is this fundamentally different from what the state does?
Imagine I demanded 30% of your income simply because you live in a certain area, despite you never agreeing to give me your money. Then, I suddenly suggested you could just move to Belize to avoid paying taxes. Most people would find this an unreasonable justification for taking your money.
Imagine I took your money and justified it by claiming you had signed a hypothetical contract. Most people would find this reasoning absurd. Yet, some argue that the state can demand taxes because it has authority, often citing a hypothetical social contract, as Rawls did. However, a hypothetical contract is not worth the paper it’s not written on. Even if you believe the hypothetical social contract is a valid justification, I still think people would prefer to have more options than just one state and prefer Multi-State Liberalism or anarcho-capitalism.
This might sound radical, but it stems from a straightforward premise: That coercive violence is inherently wrong. If coercive violence is bad, it logically follows that anarcho-capitalism, which rejects such coercion, is prima facie a good thing.
If someone is reasonably well-off, it becomes immoral to redistribute wealth by taking money from a richer person to give to a poorer person. However, this does not apply if the money is used to aid people in extreme poverty. Nonetheless, I am skeptical about the government’s ability to implement only fair taxes, which supports the case for a fully voluntarist world where people can choose to live in superior states that could also help lift others out of poverty. In cases involving extreme wealth created by an AGI, I consider the democratization of the technology to be a more just approach.
Genetic engineering, AI, S, E, X-risks, and wild animal suffering/rights
It is entirely possible that we can end all intense suffering. So, are there any good arguments against ending intense suffering? No, there is not a single plausible ethical system that does not consider intense suffering to be a bad thing. Throughout history, we have unfortunately seen people defend surgery without any pain relief. David Pearce has argued, that it is possible that future generations will look back on those who defended the preservation of suffering in the same way we look back on people who justified surgery without anesthesia.
You might agree that intense suffering is indeed a bad thing, but believe that the idea of ending it is fantasy. The counterargument is that there are people who experience little to no suffering at all, and there is no fundamental reason why we couldn’t develop gene therapies to end suffering, or use pre-implantation genetic screening to select embryos with a higher hedonic set point.
A pain-free life should be a birthright. The Far Out Initiative is an example of an organization that strives to achieve a world without intense suffering, and I would recommend that people donate 10% or more of their income to this charity; it is morally urgent.
Although I wouldn’t recommend listening to Peter Singer when he talks about how the humane slaughter of sentient beings (including humans) is morally justified, provided they had a net positive life even when it’s against their will, his drowning child thought experiment is excellent. It illustrates our moral obligation to help those in need. Imagine you’re walking by a shallow pond and see a child drowning. You can easily save the child, but doing so would ruin your expensive shoes. Most people would agree that saving the child far outweighs the cost of the shoes and that you ought to save the child. When we have the ability to prevent intense suffering and save lives with minimal effort, it becomes our duty to do so. This is the situation we’re in, by donating our time or money to effective organizations, we can make a significant difference to the lives of sentient beings. Since distance is not morally relevant, it becomes a moral obligation to help others.
It is ironic that humans romanticize nature so much, given that we have removed ourselves from it in exchange for making our lives more comfortable. One example of this romanticization is how we refer to nature as ‘Mother Nature,’ but nature is nothing like a mother to wild animals; it is more akin to a psychopathic serial killer or medieval torture expert.
Sentient beings want to live, be free, be happy, and be free from suffering. Given this, it makes sense to respect their preference not to be exploited, killed, or made to suffer. Therefore, we should stop eating them and engineer the natural world to eliminate death and suffering. We could genetically engineer animals to have genes similar to Jo Cameron, who experiences very little/no pain, and herbivorize predators. Then we could control the population of prey animals using contraception. This is what David Pearce refers to as “paradise engineering.”
People will go mad on social media if you suggest that we should help wild animals; I have been ratioed twice on Twitter. But imagine what you would want humanity to do if you were a prey animal being slowly eaten alive by a predator. Things look a lot different from that angle.
Some people justify the predation of or/and consumption of other animals and their secretions by arguing that humans are more intelligent. However, not all humans are equally intelligent; for example, babies and severely mentally disabled people can be less intelligent than some nonhuman animals. Some people accept that there are no rational arguments for this difference in attitude toward humans and other animals. Others argue that simply because humans are humans, it is acceptable to treat other animals worse and not help them in nature. This reasoning is akin to saying that because men are men, it is acceptable to treat women worse. If we discovered that 49% of “humanity” were actually Kryptonians, we wouldn’t suddenly deem it acceptable to ignore their suffering and brutally exploit nearly half of the human population. Upon closer examination, it is clear that speciesism needs to be overcome, just as racism, sexism, and homophobia do.
Given that people who have more children tend to be less intelligent, I think it is important that we begin to utilize technologies like pre-implantation genetic screening and use sperm/egg banks so we don’t become progressively less intelligent. Being less intelligent is unsurprisingly negatively correlated with being vegan and positively correlated with supporting conspiracy theories and being more supportive of discrimination, such as homophobia.
The real challenge isn’t technical; there’s no fundamental barrier preventing us from analyzing the SAT scores of 23andMe users (a genetic testing service) to determine which genes are linked to higher intelligence. Stephen Hsu has discussed how human DNA contains numerous variations, some of which are correlated with IQ. These variants differ significantly between individuals, and if someone possessed all the variants positively correlated with intelligence, an IQ of 1000 could theoretically be possible. We could apply a similar approach to identify genes associated with altruism or a lower likelihood of supporting discrimination. By analyzing the genes linked to psychopathy, we could determine which embryos to avoid. We could also examine family trees to identify genes connected to the support of segregation, authoritarianism, homophobia, slavery, speciesism, and sexism and then take steps to avoid those genes.
So, I imagine a future where people are cleverer than Marie Curie, saintlier than Donald Watson, happier than Jo Cameron and more creative than Leonardo da Vinci.
It would be fantastic to see an organization dedicated to achieving a world without existential risk by identifying genes that make us more moral. We already have the Far Out initiative, which focuses on abolishing suffering and is also effective for reducing existential risk. As David Pearce says, people who love life want to preserve it. However, I also believe that an organization focused on making us more moral through embryo selection and gene therapies is still underrated within the effective altruism community. Both suffering abolitionist organizations and such a moral enhancement organization deserve much more attention. I think accelerating these technologies, influencing policymakers, and making moral arguments for embryo selection and gene therapies consistent with making us more moral and happier would be a morally good thing to do. The case for focusing specifically on these areas is also strong, as so few people are working on them, which increases the chance for an individual to make a significant impact.
It would be valuable if this organization offered these gene therapies to people involved in creating AGI and those with access to other dangerous technologies, in order to minimize risk as much as possible.
China might be more open to genetic engineering and appears to have fewer ethical concerns about selecting embryos based on intelligence compared to the United States. Therefore, it is important to ensure they don’t gain a competitive edge by enhancing their intelligence. If this happens, the Chinese dictatorship could dominate the world and impose its values, potentially locking them in indefinitely. That leads me to believe that it is ethical to accelerate these genetic technologies in democratic countries and promote its use only in democracies, while avoiding that people in China increase intelligence with these technologies, in particular. However, if you are from China and support democracy, it would be acceptable for you to use these technologies personally, but not to promote or advance them among the general population.
It could be beneficial to create artificial gametes and select the best embryos based on traits like intelligence and unselfishness. By copying that embryo into a sperm or egg cell and repeating the process, we could potentially develop something extraordinarily intelligent. This intelligence could then be used to promote democracy and free speech worldwide, laying the foundation for moral progress and reducing the risk of eternal dictatorships, like Xi Jinping’s regime, taking over everything. While creating this super biointelligence is likely illegal, a wealthy individual might still be able to achieve it. We already have the technology to create artificial gametes in mice, and we can predict the height of a random human because we have access to the genetic data and height information of many individuals, which is available to researchers. With access to data from services like 23andMe, we could predict intelligence. It would be best to secretly attempt to create a biointelligence using artificial gametes and embryo selection, but you should only do it if you want to make the world democratic and see the world evolve from that. Doing so could ensure the foundation for moral progress in every country. I believe that would be sufficient to achieve a good world. The strength of superior arguments would eventually outcompete bad ideas, ensuring moral progress and also avoiding value lock-in from bad actors.
We will probably all be considered evil psychopaths in the future by post-humans, and that is moral progress. Just as we prefer a normal person over a psychopath, post-humans will prefer post-humans over humans.
The good thing is that a biological superintelligence can more easily dodge the alignment problem, which Artificial Intelligence cannot as easily because humans are already aligned. Moreover, these super-smart humans might be able to solve AI alignment more successfully. America seems to be leading by far in the development of AGI, and it would be preferable if they created it before China. Overall, I think working on AGI development and embryo selection for intelligence is a good thing if done in democracies. (China has set a goal to become the world leader in Artificial Intelligence by 2030; it’s crucial that they don’t surpass the US in this field.)
When it comes to AGI, we should aim to accelerate AI safety research to match the rapid development we’re seeing in AGI itself. Accelerating AI safety is particularly important because so few people are focused on this. Overall, I am not in favor of slowing AGI development, but we should invest significantly more in safety research to ensure AGI is aligned. It’s a complex situation when we consider other existential risks, like nuclear weapons or engineered pandemics, which could kill us before AGI can be developed, and AGI can help us abolish these risks permanently. There’s an asymmetry here: while AGI offers the potential to solve existential risks, technologies like nuclear weapons and engineered pandemics present only danger without the upside. Their risks likely increase as time passes. It’s difficult for me to determine whether accelerating AGI development will increase or decrease existential risk. Given this uncertainty, the argument in favor of AGI development is that it would be better for the US to develop AGI rather than countries like China.
However, I am more positive about promoting the idea of suffering abolitionism and reducing existential risk by making us less selfish, among other factors. This is because so few organizations are working on suffering abolition, and none are focused on analyzing and creating predictive models for reducing existential risks or the risk of authoritarianism by changing our genes. Hence, the potential impact a person can have in these areas is considerably larger.
One way I suggest we could make AGI a lot safer is by enhancing people morally through genetic technologies. This could involve targeting people with access to dangerous technologies and genetically engineering them to respect the democratic process. By doing this, we can reduce the risk of these people trying to impose their will on the general public.
Another way we could reduce the risks from AGI could be to utilize modern lie detection technology that uses brain scanning techniques. Modern lie detection technology has an accuracy rate of 99%+ in detecting if someone is lying, which could be used to check researchers working on AGI. (One example is the company “No Lie MRI,” which a well-known Danish scientific magazine “Illustreret Videnskab” wrote about.) For example, we could ask researchers questions like: Will you use AGI to take over the world and become a dictator? Are you a spy? This could add an extra layer of security in AGI development.
AGI Programming Guidelines
Security: Ensure that no AGI system becomes smarter than this AGI system (the first AGI system) unless it is approved by a global vote, allowing it to become smarter. If the global population votes in favor, only then should an AGI system be allowed to exceed the intelligence of the first AGI system. Otherwise, other AGI systems must be shut down to reduce the risk of an AGI falling into the wrong hands and potentially taking over the world. The AGI system should also ensure that no one is able to create engineered pandemics that pose a danger to sentient beings or any other existential, suffering, or exploitation risks. Nothing should be able to endanger this AGI by becoming smarter than it, and if such a threat arises, it should be shut down.
Ethical Governance: The AGI should respect the democratic will of the majority of the global population. However, it must not harm sentient beings, including digital entities and brainoids (lab brains). The AGI should be able to determine if an entity is conscious and ensure that no sentient being harms another.
Global Standards: All countries should adopt veganism and democracy, while also respecting citizens’ rights to leave and establish their own countries if they choose. The non-aggression principle should be followed.
Command Evaluation: For any command given to the AGI, it should assess whether the command could lead to unintended consequences or potential regrets. If risks are identified, the command should be further specified to avoid those outcomes. The AGI must always explain in detail the potential consequences of any given command. For example, to avoid the paperclip maximizer scenario, we could ask the AGI: “Will this command lead to negative unintended consequences according to the values of the average person in the world?”
Even though I’m agnostic about whether digital minds are possible, I believe we should be extremely cautious in assuming they aren’t. Unless we’re sure, we shouldn’t create digital minds in large numbers, such as in VR games, where they could potentially be tortured or killed on a massive scale. Before we take such steps, we need a solid theory of consciousness. I think AGI or superhuman intelligence could help us develop that understanding.
I believe we should create Super Eudaimonia by maximizing the number of virtuous beings—beings who live meaningful lives, do not discriminate, and maintain a perfect balance. They should not be cowardly (deficient) or rash (excessive) but courageous (mean), possessing all virtues to a perfect extent. They would be more virtuous than any human who has ever existed, which must be a commendable goal for virtue ethicists to achieve.
The significant moral progress we have seen in the last 100 years correlates surprisingly well with the increase in IQ we have observed. I am not sure if that is the reason, but it does make sense that people with higher IQs are less likely to believe in foolish ideas and are more likely to take hypotheticals seriously. For example, if you ask them, ‘What if you woke up tomorrow as a black person instead of a white person?’ they are more likely to take such a question seriously. That is what ethics is all about: Putting yourself in someone else’s shoes.
I think E-risk, or the risk of astronomical exploitation, is a useful concept and important to focus on, just like S-risk (risk of astronomical suffering) and X-risk (existential risk). We could potentially commit murder and enslavement of sentient beings on an astronomical scale without any suffering; that’s why I think E-risk is a useful concept. In an anarcho-capitalist society, private police can only intervene in matters that violate the non-aggression principle or threats that are astronomical in nature, such as X-risk, S-risk, or E-risk. Such intervention can be justified if it reduces the expected number of rights violations. Creating children with harmful genetic traits, such as psychopathy, sadism, and discriminatory tendencies, could increase these risks, so it should not be allowed. Instead, we should aim to normalize having children who are morally superior to us.
It should also be illegal for new states to develop nuclear weapons, with only a very small number of states allowed to possess them. I imagine many people would choose to live in a state similar to the US as it is today, maintaining the nuclear arsenal the US already has.
If it becomes easy and cheap to create engineered pandemics or nuclear weapons, we might justify surveillance of everyone if necessary to ensure that no one can commit such harmful acts.
If we one day achieve a completely democratic world, we could then make nuclear weapons obsolete, since democracies don’t attack each other.
One of the single best policies that would likely do the most good in the world would be for a nation to provide financial incentives to intelligent, happy, and moral people for having children, while offering financial support to those who are less intelligent, moral, and happy if they use sperm and egg donors to conceive a child. This policy would greatly benefit society, as a one-time payment of $100,000 (or possibly a lower amount that could achieve similar results) to those who follow this plan would be more than offset by the future tax revenue generated by the children. We could incentivize the use of pre-implantation genetic screening of embryos by making it free in this society. If the government loans the money at a 4% interest rate, it would take the child less than 10 years to repay the loan after starting work, and these loans could be very secure for investors.
Ethical theories and what world we should aim for
Believe it or not, I actually came up with an ethical theory that I called the principle of happiness and suffering, but later found out that Bentham had already created this ethical theory called utilitarianism. My idea was based on the notion that suffering is the only thing that feels bad, and happiness is the only thing that feels good, so we should maximize the sum of goodness and minimize the sum of badness. However, I’ve since become more skeptical of utilitarianism. When you come up with a truly great idea, you can feel it. I felt it, and I’m sure Bentham did too.
Det er som om der er en moralsk udvikling imod lidelse og imod tvang, hvis man kigger på hvad vi mener er forkert.
Altså at påfører lidelse og tvang. Men ikke at man hjælper folk med at komme ud af tvangen og lidelse ved en aktiv handling,
se bare på mange af milliardærerne der bruger deres penge meget umoralsk, imens folkemoralen ikke kalder dem for onde. Måske fordi det vil resultere i at det umoralske ved milliardærerne også medføre at folket selv gøre noget umoralsk eller i hvert fald langtfra handler perfekt selvom det ikke er ligeså slemt som milliardæren. Vi kan forestille os en genetisk modificeret version af mennesket som mener at gå forbi et lille døende Afrikansk barn og på lang afstand ikke redde barnet i Afrika er af samme værdi og har samme reaktion på begge situationer, de vil kigge på vores samfund og kalde os alle sammen for onde. Vi alle kan støtte effective altruism og være med til at skubbe ting i den rigtige retning. På trods af alt det har jeg et positivt syn på at menneskeligheden vil skabe lykkefølelser hinsides vores fatteevne og vi alle er en del af det fremskridt gør på den mode os alle (undtagen dem der direkte nedbryder systemet) moralsk gode.
Jeg forestiller mig at der i et land er en stat, der så tilbyder et valg, hvor folk så kan vælge hvilken stat de vil være en del af, så hvis vi har et valg er det vigtigste at de stater bliver oprettet med flest stemmer. Skatten af denne stat, som nok er nødt til at være der, for at lave valg og bevare et voldsmonopol der derved sikre alle staterne, da folk vil have deres ideale stat (herunder også fraværet af en stat). Men da du i den oprindelige position ikke ved om du bliver anarkist, socialist eller liberalist ville du vælge den mulighed som giver flest muligheder, det vil føre til en stat der maksimere muligheder mest muligt og beskytter hver eneste af disse stater. Hvis du ikke vidste om du blev anarkist ville du vælge den liberale statisme som har voldsmonopol, jeg håber selv på at vi vil kunne acceptere det lille antal anarkister som ikke vil betale skat, at der vil være folk der donere deres del af skatten, hvis de har et job. Men det vil i princippet her være retfærdigt at tvinge dem til at betale deres del af skatten, for måske har vi det problem at en masse vil have doneret deres skat også giver det kun mening at tvinge folk til at betale skatten. Det er nok det mest realistiske scenarie at der vil være en masse der siger jeg vil betale 0% i skat, men da den liberale statisme så ville bryde sammen er vi nødt til at gå ud fra hvad folk ville i den oprindelige position. Vi vil da på retfærdigvis opkræve en skat for at sikre sikkerheden af alle staterne, da folk ville vælge det i den oprindelige position. Vi acceptere da den samlet gode vilje af hele folket og dermed bruger vi ikke folket som midler til vores mål. idealet er så at vi vil kunne oprette nok stater til at alle vil kunne bo i deres ideal stat. Men hvis der ikke er nok der vil bo i en given stat for eksempel kun en person så vil denne stat selvfølgelig ikke kunne oprettet hvis der kræves veje og sådan noget i den givne persons ønskede stat, og det er selvfølgelig synd og i en ideel verden ville alle kunne bo deres ideale stat. Men det er klart vi kan ikke opkræve skatten af andre for at oprette denne stat til denne ene person for vi bruger de andre imod deres vilje, men man vil nok kunne finde en stat som man er nogenlunde enig i og således vil vi have maksimeret alle de gode viljer så meget som muligt med de redskaber vi har til rådighed nu.
Under uvidenhedens slør ville folk vælge at uanset hvem de blev, ville de at de selv kunne vælge deres stat,
(Blandt rationelle og det er dem der kan vælge et godt, ondt og forstå deres handlinger påvirker andre) alle vil have rettigheder og kunne stemme.
Ville man kunne donere penge til en masse frihedskæmpere i lande med diktatur, folk der vil lave revolution og indføre demokratiet, vil det være effektivt? Et eksempel kunne være Mandela og ANC der havde brug for penge til at kunne besejre apartheid.
Nogen ideer jeg kommer ind på er den højeste meningssøgen som er, at alle med en god vilje kan finde deres mening med deres liv som de mener har den højeste chance for rent faktisk at være mening med livet. Her vil man kunne bruge et eksempel som er en utilitarist der vil leve i en liberalistisk stat med utilitaristisk politikker og en deontolog der vil leve i en socialistisk stat. De mener begge der er 50% chance for de har ret så har vi et samlet bud på 75% på at de lever i overensstemmelse med hvad der rent faktisk er det objektive gode, efter deres samlet mening. Hvis begge kan leve i deres ideelle stat og udleve de 50%, i stedet for 25% som resultatet vil være hvis man bare tog et tilfældigt liberalistisk eller socialistisk stat med deontologisk eller utilitaristiske politikker og tvang den anden til at leve under den stat (en vil være enig en vil være uenig). Der er selvfølgelig problemer når de mener den anden ikke har ret, så skal der måske tilføjes minus procenter til deres bud på at den anden ikke har ret, for eksempel at utilitaristen mener at der er 10% chance for at deontologen tager fejl og er ond. Det vil dog føre til at vi lukker ned for friheden til at leve i overensstemmelse med ens værdier, da hvis der er 51% der mener at cigaretter skal forbydes vil det begrænse friheden for dem der ikke mener det, så der er et problem ved bare at sige flere vil et derfor skal to forbydes. Derfor i det lange løb er det altid bedre at acceptere folks meninger i vores alles søgen efter meningen med livet, for måske har de ret. Måden vi skal tænke på er det samlet bud af alle på meningen med livet, hvor vi ikke regner minus procenter ud men kun plus procenterne i stedet, da ellers vil det føre til katastrofale konsekvenser for søgen efter meningen med livet, hvis vi får et flertalsdiktatur. Men da ingen har monopol på mening med livet er det bedste vi kan gøre indtil videre at maksimere buddet af alle de gode viljer på hvad meningen med livet er uden at lukke andres synspunkter ned.
Den liberale statisme skaber som vi så den højeste meningssøgen, ideen er så at det vil have størst sandsynlighed for at føre til det objektive gode, som er ideen om at man en dag kan bevise noget er objektivt moralsk ondt eller godt. Det kan være en form for mening med livet at man skal forøge søgen efter det objektive gode mest muligt, som da er det etisk rigtige. Fordi vi så i fremtiden kan finde ud af hvad det etisk rigtige er, princippet kan da formuleres sådan, størst muligt søgen efter det objektive gode princip. Idealet vil nok være at skabe en superintelligens i form af en kunstig intelligens eller biologisk opgradere mennesker som så kan løse gåden om hvad det objektive gode er. I fremtiden vil vi nok også kunne skabe uendelig meningssøgen som vil være det punkt i historien hvor vi kan maksimere alle de gode viljer mest muligt, dvs. de gode viljer vil have en interesse i at forøge lykken, da vil vi kunne forøge lykken ufatteligt meget. En anden ide er uendelig lykke som er det punkt i historien hvor vi kan maksimere lykken mest muligt, som jeg vil se som et moralsk imperativ at vi prøver på at frembringe denne verden i moderation. En utilitarist vil måske endda sige at vi bør kun tænke på at frembringe denne verden, da uendelig eller ufatteligt + altid vil være mere end det – (lidelse) vi oplever nu. Grunden til jeg ikke vil gå lige så langt som utilitaristen er at hvis vi laver alt i universet til lykke, så vil der jo ikke være nogen superintelligens til at objektivt bevise hvad der er objektivt godt og ondt, derfor overvurdere utilitaristen sin egen ide om det gode som kunne være forkert.
Om revolutioner.
Det er kun retfærdiggjort imod noget der ikke er et demokrati, fordi fra demokratiet kan man bygge videre på det, men i alt andet er der kun en sandhed. Derfor bør revolutioner bruges imod diktatorer, ellers burde man anvende demonstrationer eller civil ulydighed, ved at forsøge på at lave en stat inde i ens land også appellere til de højere moralske værdier om retten til stat.
Det er muligt i et demokrati med ytringsfrihed at folk vil lytte til vores sag, hvilket ikke sker i et diktatur. Retten til stat kan opnås ved at det skrives ind i loven som en rettighed, da det er absurd at stemme om, det er en rettighed som altid har været sand. Et demokrati reflektere nogenlunde cirka halvdelen af folkets stemmer så derfor vil en revolution ikke ende godt, så det er ikke en god måde at opnå målet på.
Jeg er ikke helt så kategorisk igen, men konsekvenserne skal være slemme før det retfærdiggøre at gøre gode viljer til midler til at opnå mål.
Handicappet mennesker der ikke har den gode vilje og babyer som vi ved ikke kommer til at udvikle den gode vilje skal behandles godt, derfor vil jeg bidrage til den demokratiske debat og gå ind for at vi skal minimere lidelsen i disse to grupper ligesom ved de andre dyr. De er også en del af deres familie ligesom kæledyr og det er endnu et argument for at tage dem seriøst at et angreb på dem også et angreb på familien. Selvfølgelig et angreb på en gris er også et anbreb på grisens familie. For mig har alle følende væsner retten til at leve ideelt udødelighed, ingen lidelse og høj lykke, min mening er at alt lykke og lidelse er lige og død er lige for alle. Det betyder ikke at et insekt er ligeså meget værd som en gris, for grisen er mere kompleks og kan føle mere lidelse, på den anden side betyder det også at der er et antal af insekt lidelse og død som er mere værd end grisens lidelse og død.
Hvis man ikke vidste hvilken vilje man fik ville man maksimere alles vilje så meget som muligt, dette vil føre til tvangsprincippet og højeste meningssøgen som et ideal for alle lande.
En potentiel dommedag ødelægger alle staterne og siden at staterne er retfærdige er det uretfærdigt ikke at gøre noget ved en dommedag, derfor kan man gribe ind i folks frihed for at forhindre en dommedag.
Jeg vil anbefale alle moral nihilister i stedet for at leve efter intet princip at leve efter “størst muligt søgen efter det objektive gode princip”, i praktisk vil det nok betyde at de vil fokusere på at skabe kunstig intelligens og reducere eksistentiel risiko. For hvor sikker kan man være på det gode ikke eksistere selv om der kun er 0,01% chance for at vi vil finde det objektive gode vil det være det hele værd, objektivt.
Man kan vælge at ville dø i fremtiden fordi man ikke ønsker at leve når man får alzheimers i fremtiden. Men imens man beslutter det har man stadig den moralske sans som en 12 årige eller over, så er vi nødt til at acceptere den gode vilje af personen også når alzheimers er fuldt udviklet bør vi opfylde ønsket af patienten om at dø.
Transhumanisme har som mål super Intelligence, super longevity og super happiness. Men jeg vil tilføje super freedom (i form af liberal statisme og at vi kan opfylde alle de gode viljer mest muligt, altså de gode viljers ideer om hvad det gode er vil vi kunne maksimere). Udover det kan vi tilføje Super menings følelse, med menings følelse vil jeg forstå som følelsen af at vores liv har mening, super delen vil jeg forstå sådan at denne følelse af at livet er meningsfuldt skal være mere intense end noget vi kender til i dag.
Et argument for position er at livet føles så meningsfuldt at det må have en mening ligesom man kan sige med utilitarismen og lykken at det følelses så godt at det må være godt. Det kan summeres op “den størst mulig menings følelse for det størst mulige antal”. Den sidste super jeg vil tilføje er, super søgen efter det objektive gode (Vi kan godt have vores ideer om hvad det objektive gode er, men når alt kommer til alt er det eneste af betydning hvad der faktisk er det objektive gode).
En abe bliver til et menneske, et menneske bliver til et postmenneske (posthuman), et postmenneske bliver til en Gud!
Gude stadiet er det tidspunkt i historien hvor vi har opdaget hvad det objektive gode er og udlever denne objektive godhed så meget som er muligt, da er vi ikke postmennesker der udlever de seks “supers”, da er vi blevet godheden selv!
Anarcho-capitalism vil åbne en masse nye muligheder op, men så kommer spørgsmålet hvordan kan vi skabe en etisk god stat hvad vil det betyde? Her vil der være lige så mange holdninger som gode viljer på jorden, dog vil de dårlige holdninger der stiller dårlige stater til rådighed fejle og det vil åbne muligheder op for en massiv konkurrence der vil kunne resultere i stater som er langt overlegen noget vi har i dag. Mine holdninger er en dråbe i et hav og skal testes ligesom alle de andre ideer om den perfekte stat. Min idealstat er en hvor staten giver alle kommende forældre mulighed for at vælge gener der reducere eksistentiel risiko for menneskeligheden uddør og ændre FAAH/OUT genet så alle vil blive befriet for lidelse. Hertil kan der være mere som gener der gør os mere intelligente, mere etiske eventuelt overfor fremmede og de andre dyr, bedre til at arbejde hård og opnå ens mål og sikkert mange flere ting. Landet kan selvfølgelig gøre ændring af visse gener ulovlige pga. landet kan bruge argumentet om dommedag, hvor de på retfærdigvis kan sige at for eksempel psykopat genet vil forøge den eksistentielle risiko og derfor blokere en stat der prøver at lave en masse psykopater.
Men tilbage til staten. Den skal også give langt flere penge til AGI (artificial general intelligence) forskning, dertil undersøge hvordan vi får en god singularitet, det speciale er bare vi vil kun bruge vores hellige postmennesker eller i det mindste bruge folk der er imellem mennesket og postmennesket til vores AGI forskning. Udover Fokusere på longtermism for eksempel reducere den eksistentiel risiko ved at donere langt flere penge til at undersøge noget som pandemier (og andre ting) der kan udrydde menneskeligheden. Igennem en skat vil borgerne automatisk donere til de mest effektive organisationer til blandt andet at hjælpe mennesker og andre dyr i nød, som folk i ekstrem fattigdom og dyr i landbruget og naturen. Vi vil ikke acceptere måden vi behandler de andre dyr på og vil i stedet at at skade dem begynde at hjælpe dem. Vi acceptere ikke døden som naturlig vi vil se døden af døden snarest muligt ved aktivt at donere penge til at bekæmpe døden. De økonomiske systemer, skolen og kravene for lederne af vores stat, er alt sammen noget hvor vi kan blive inspireret af andre stater også tage fra dem der gør disse ting mest effektivt. Jeg har nogle ideer om økonomi der nok er mere passende til en anden bog, men lederne kan det evt. være et krav at man skal være god i alle Howard Gardners otte intelligenser og have vist gode lederevner, et geni. Med hensyn til skoler vil vi være åbne overfor om meditation eller udskydelse af behov som i testen hvor man ikke må spise noget slik foran sig virker eller ikke. Vi kan teste det og derved kunne optimere skolerne, flere ideer vil være at spørger hvordan lære vi sprog godt og hurtigt? Enhver polyglot ved vi ikke lære vores børn det optimalt, det kan gøres meget nemmere som at træne i de 2000 mest brugte ord på sproget, hvilket gør man næsten kan forstå alle ord på et sprog som engelsk. Da skal vi bare træne igennem ordene og computeren kan optimere læringsprocessen til den enkelte elev, hvor vi vil se at de ord der ikke sidder fast os eleven vil dukke op på skærmen indtil de er lært. Hele verden ligger for vores fødder lad os bare give staterne til folket, og ikke folket til staten!
I min ideal stat kan der være sæddonerer som er lykkelige, intelligente, imod discrimination, hårdtarbejdende, uselviske og livs elskere og andre gener der minimere chancen for at vores civilisation bliver destrueret.
Sæddonorne kunne også excellere i alle Gardners intelligenser.
Det er hvad man kan starte med, men i stigende grad vil det være crispr der kan gøre jobbet. Vi har teknologien til at dramatisk at forbedre verdenen og det kan være en stor fordel ved at have multi state liberalisme at vi kan bruge den teknology nemmere siden mange stater vil gøre det lovligt, sammentidig bør det være ulovligt at vælge gener for ens børn der gør den ulykkelig, selviske, og for discrimination, da det ville være børnemishandling og en eksistential risk for menneskeligeheden hvis det ikke var ulovligt.
Når man skal bestemme det økonomiske system som ens stat skal have vil jeg anbefale dette skal være det der bedst opnår de seks supers. Alle de seks supers er gode, men særligt super søgen efter det objektive gode vil jeg se som det højeste mål. Vi ved sikkert meget mindre end vi tror vi ved, man kan forestille sig en alien art der er langt mere intelligent end os og vil have en helt anden viden om det godes ide end os. At en utilitarist vil lave alt stof i universet om til en massiv lykkelig uendelig orgasme, kunne være den mest fatale fejl i menneskelighedens historie, for vi må først acceptere vores uvidenhed og handle i fremtiden med bedre viden om det objektive gode, hvis muligt.
Hvis du ikke vidste hvilken holdning du ville blev født med ville du have at dit land ville reflektere din vilje, så længe det ikke bryder dine rettigheder. Refleksionen af folkenes meninger sker da igennem ting der kan gøres ulovligt som jeg har snakket om.
Men alle har en stemme fordi i den oprindelige position vidste du ikke hvilken mening du ville få også ville du fordele stemmerne så alle fik en stemme per person. Man kunne heller ikke vide objektivt hvad det objektive gode er (det ville virke lige overbevisende for hver enkelt god vilje at den har ret), så pga. det har ingen en særlig viden og derigennem får alle en stemme også må vi håbe vi kollektivt kan nå det objektive gode. Det er også på den måde vil maksimere alle de gode viljer mest muligt.
Kritik af Rawls uvidenhedens slør
Rawls konklusion burde have være at de rige lande skulle udrydde alle der døde af sygdomme vi nemt kunne udrydde. Pga. alle ville være interesseret i at kunne få nok mad og undgå sygdomme som ville slå dem ihjel, og man må sige det er de svageste mennesker på vores klode. I stedet for at redde en amerikaners liv, der måske koster millioner af dollars vs 5000$ for den fattiges liv, hvem ville sige ja det er en politik af de svageste for de svageste?
Jeg vil personligt foretrække at behandle 12 årige børn som voksne, altså på den måde at jeg vil acceptere deres valg ligesom jeg acceptere en kvindes eller mands valg.
Hvordan skal vi forsvare at alder er en relevant forskel, når vi ikke tænker det er en relevant forskel hvad angår kvinder og sorte? Derfor bør de have stemmeret og det bør være baseret på en relevant forskel som den gode vilje er. Det kan muligvis være det er svært at kontrollere i praktisk om alle har opnået den gode vilje, da hvis det er sådan kunne det være nødvendigt at sige alle over 12 år har stemmeret som en simpel pragmatisk regel.
Retten til stat må komme først, selvom jeg ikke vil sige noget altid er forkert eller godt mener jeg at et samfund der sætter retten til stat først vil være bedre til at føre til de seks supers og derigennem er det retfærdiggjort.
Lidelse er kun for de gode viljer der har valgt det, ellers mener jeg ingen bør føle det. Vi må skabe en kunstig intelligens som prøver at regne det objektive gode ud, og hvis der er et objektivt bevis for det, så vil den kunstige intelligens følge dette uanset hvad.
Ingen har særligt indsigt i det objektive gode så derfor må vi maksimere alles gode viljer, da maksimere vi vores chancer.
I den liberale statisme er tvangsprincippet sat først, hvis nogen vil sætte sin egen mening ned over andre er det en selvmodsigelse hvis vi tænker på Kants kategoriske imperativ. Fordi man skal kunne universalisere det, mener jeg at retten til stat er den logiske konklusion hvis man tror på Kants kategoriske imperativ. Man vil ens egen ide om det objektive gode og det universalisere man til at alle de gode viljer vil deres ide om det objektive gode, ellers var man nødt til at sige man ikke vil ens ide om det gode, men det er en selvmodsigelse. Det vil ikke give mening hvis man ikke handler i overensstemmelse med ens ide om det objektive gode, da det er hvad man vil. Men man kan ikke ville at alle gør ens personlige ide om det gode, for den verden vi finder os i er en hvor alle har deres egen ide om det gode, så for at undgå at behandle andre gode viljer som midler til mål ved at diktere ens egen ide om det gode, må acceptere de gode viljer som mål i sig selv. Vi kan ikke gøre det til en almen lov at vi kun tænker på at maksimere lykken uanset hvad, for så vil vi ikke kunne ville at alle bare gør deres ide om det gode og tvinger andre til at følge efter, så vil magt få ret. Vi vil nå frem til retten til stat som det der maksimere alle de gode viljer mest muligt og tvinger dem mindst muligt. Ens maksime er jeg vil handle således så ingens gode vilje skal tvinges og alles gode vilje skal opfyldes. Men før den liberale statisme kan opfylde det kategoriske imperativ skal det være sandt uanset hvem du er og hvad du vil. Her vil det fejle fordi det afhænger af den enkeltes ide om det gode.
Men den gode vilje kan være tingen i sig selv som er god, det er den højeste tilfredsstillelse at gøre i overensstemmelse med ens ide om det gode, så det er hvad folk vil og den højeste tilfredsstillelse. Jeg vil ikke mene folk vil lykke, det som folk vil er deres ide om det objektive gode. Jeg er nok mest fan af et imperativ der er ligesom Kants, men uden nogen begrænsninger, så det skal sige handl kun således du kan ville din maksime bliver en almen lov, uden flere regler. Grunden er at jeg vil appellere til fornuften om at vi kan indse den gode vilje som som det højeste og så skal vi maksimere dette mest muligt, som så vil passe ind i imperativet uden regler, så det imperativ må have mere sandhed over sig end det kategoriske imperativ.
Ideen om alle børn som irrationelle og som noget der skal beskyttes er en social konstruktion, det er sandt med mange, men langt fra alle børn.
Det at folk vil bestemme over andre folk og deres forestilling om den ideelle stat, ser jeg som en krig hvor vi gør det værre for hinanden, ja lad os stoppe det, er fred for meget at spørger om?
Hvis nogen mener art er en relevant barriere, har jeg et tankeeksperiment.
Vi har en hvid udviklingshæmmede, en sort udviklingshæmmede og en gris på samme intelligens og følelses niveau som begge mennesker. Der går jeg ud fra personen ville sige at grisen ikke er vigtig fordi grisen ikke er medlem af arten homo sapiens. Men hvad nu hvis vi tog til en anden planet og denne art på planeten havde udviklet sig præcis så de lignede mennesker, uafhængigt af noget menneske, de var altså en anden art. Det er ikke vigtigt om det rent faktisk er muligt, men hvad nu hvis det skete det er det interessante. Ville du da sige at det ville være okay at behandle de udviklingshæmmede folk af denne art på samme måde som vi behandler en gris. Hvis du ikke kan svare ja til dette så mener du ikke at arten på dyret er en relevant faktor og alle der svarer nej er nødt til at finde en anden faktor. Det er ikke arten, hudfarven, antallet af hår på kroppen af dyret, antallet af ben eller udelukkende en høj intelligens, hvor er vores retfærdiggørelse?
Vi kunne forestille os en alien civilisation som ville spise menneskelignende væsener på denne planet, som minder om babyer og udviklingshæmmede med samme ligegyldighed som vi spiser grise og kyllinger. Vi kan sige til dem det føles forkert at spise menneskelignende væsner, men for dem vil det føles forkert at spise andre aliens.
Hvorfor skal menneskelignende væsner have en højere status end ikke menneskelignende væsner, for hvad nu hvis vi havde et menneske som ikke var menneskelignende på nogen måde, så ville vi sige at individet skal behandles med respekt som et menneske. Men vi kan ikke basere det på art med mindre du mener det er okay for et menneske at spise menneskelignende væsner med en iq på 20 som har udviklet sig på en anden planet. Hvis du mener det ikke er okay, vil det betyde du måske basere det på at det er et menneskelignende væsen, men vi mener at ikke menneskelignende væsner som er mennesker skal behandles menneskeligt (kig bare på Guinness World Records flest hår i ansigtet, ligner de mennesker? Ellers hvis de mener de gør det hvad nu hvis de fik plastik kirurgi så de lignede en chimpanse mere end et menneske?). Vi har skabt et paradoks, et paradoks der vil skabe mere og mere dårlig samvittighed, den eneste løsning er at vi må gå hinsides arten på dyret og om dyret er menneskelignende.
Vi kan konkludere at selv artschauvinisten kan ikke være artschauvinist, for de ville ikke kunne se sig selv i øjnene ved tanken om at tilføre lidelse til menneskelignende væsner på en anden planet. De kan ikke være menneskelignendeister, for de føler afsky ved tanken om at tilføre lidelse til mennesker. De kan ikke være ekstreme intelligensister, for de væmmes ved tanken om at tilføre lidelse på babyer og udviklingshæmmede.
Multiverset vil være en drøm for en utilitarist og et mareridt for en negativ utilitarist. For den negative utilitarist da der vil være så meget mere lidelse i verden. Men det vil være usandsynligt at der ikke er en meget stor andel af universerne der har opnået uendeligt lykke. Det er meget mere sandsynligt civilisationerne havde en interesse i at nå det stadie og derfor må enhver utilitarist sige at den uendelige lykke i så mange universer vil være meget større end den samlet lidelse som er følt.
Skal vi opnå super intelligens ved at ændre vores gener, en bio singularitet?
Ideen om at vi bør udvikle AGI (artificial general intelligence) over lang tid, have filosofiske diskussioner om det, fordi det er sådan et vigtigt problem. Det er jeg da også enig i at det er, men hvis vi er for langsomme til at udvikle AGI udvikler Kina det bare med konsekvenser det indebære. Plus der er for mange problemer kunstig intelligens kan løse til at vi kan holde udviklingen tilbage, for eksempel firmaer vil tjene penge, så det eneste valg vi har er at udvikle det. Selvom i en perfekt verden ville vi vente med at skabe en perfekt singularitet indtil vi har perfekte mennesker.
AGI må fra starten af have et stærkt ønske om at finde og gøre det objektive gode.
Den største forbrydelse i menneskeligheden historie vil altid være at vi ikke skabte gode postmennesker før der reducerede eksistentielle trusler til nul.
Hvad med følelses rettigheder?
Væsner med følelser har sådan en massiv interesse i hvordan deres liv er, så vi kan erkende fra det at det har en betydning hvad man kan gøre imod dem. Det er imod den samlet sum af alle de gode viljer hvis der ikke er regler på sådan et vigtigt problem, da så mange vil være imod det og forhåbentligt vil de gode viljer indse hvor vigtige de andre dyrs interesser er.
Jeg tror ikke vi har nogen speciel grund til at tro en mus lykke og lidelse er så voldsomt meget forskelligt fra det af et menneske. Jeg vil foreslå at et menneske føler 16 gange så meget smerte som en mus, fordi vi skal kigge på det sted på hjernen der er ansvarlig for smerten også hvor mange neuroner der er i dette område. Neuronerne vil stå for kompleksiteten.
Det kunne godt være at en blåhval vil kunne føle mere lidelse end et menneske. En blåhval har dobbelt så mange neuroner i alt i forhold til et menneske og sikkert endnu flere i det område i hjernen der er ansvarlig for lidelse.
Jeg er bestemt ikke nogen ekspert på området, men mener det virker rationelt at tage de to ting med i beregningen.
Hvis vi skal oversætte muse smerte til tilsvarende menneske smerte vil det være to ting vi skal sammenligne, for eksempel at få hygget en fod af vil et menneske foretrække i forhold til at blive gennemtæsket 17 gange, men 16 gange er det i balance og begge er lige dårlige for et menneske. Der har vi en oversættelse at skære en fod af et menneske og at skære en fod af en mus vil for musen svare til at et menneske bliver gennemtæsket. Hvis en ond dæmon kom og fik en til at opleve bevidstheden af begge stadier også bagefter sagde dæmonen at man skulle vælge en af de to ting igen, i den situation ville man være ligeglad med hvilken en af de to som man valgte, begge vil være lige dårlige.
Man skal også prøve at finde noget sammenligneligt for eksempel er et øre på en elefant større i forhold til det på et mennesker (selvom at vi forestiller os at skrumpe en elefant ned til menneske størrelse, vil ørene stadig være større). Derfor kan et menneske øre og et elefantøre ikke sammenlignes perfekt, det vil altid være tilfældet, men så må man finde noget der er tæt på hinanden.
Et land med 50% glade slaver og 50% glade ejere, vil vi mene er forkert selvom det er lige så lykkeligt som et land med 100% glade frie folk.
Man kunne sagtens forestille sig glade slaver med nok mad, ikke alt for meget arbejde og nok søvn osv. Men der er noget der er uretfærdigt ved at behandle væsner som milder til at opnå vores mål..
Invincible Wellbeing som vil udrydde lidelse, er også vejen til super menings følelse for folk der er lykkelige har også en følelse af at deres liv meningsfuldt.
Argumentet for etisk pluralisme er der vil være en større chance for at man rammer ideen om det objektive gode. Altså der er overensstemmelse mellem hvad der rent faktisk er det objektive gode og hvad vi tror er det er det objektive gode. Siden vi ikke ved hvad det objektive gode er vil jeg gå ind for en etisk pluralisme med værdien i det at vi skal bevise hvad det objektive gode er, så vil jeg sige vi maksimere vores chance for at gøre hvad der er objektivt godt ved at bevare mange værdier.
Grunden til jeg er konsekvensialist og ikke deontolog er fordi at hvis vi laver et eksempel absurd nok vil det overskride alle principper som jeg ellers har sagt man ikke bør bryde, så derfor vil jeg se mine principper regel etisk pluralistiske som kan brydes i åbenlyse tilfælde. Hvis princippet er torturere aldrig en baby, men hvad nu hvis der er 1976544324567889654332356677 væsner der lider 3568896543 gange mere end babyen der bliver tortureret i uendelighed så vil jeg sige at nogle situationer kan være så ekstreme at de overskrider ethvert princip. Man kunne forestille sig en almægtig ond dæmon der giver os en mulighed at gøre 1000 gode viljer til slaver i et år eller den vil torturere uendelig mange væsner i uendelig lang tid der føler uendelig meget mere end os. Princippet siger gør aldrig gode viljer til slaver og i princippet kunne den kæmpe lidelse være påført af den onde dæmon. Men jeg siger hvis der kommer en sådan dæmon gør alt for at undgå det scenarie og brug aldrig mine principper som 100% faste regler som forsvar.
Hvis vi finder ud af hvad det objektive gode er, falder alt andet etik sammen og selvfølgelig skal vi kun det objektive gode intet andet.
Alle har adgang til informationer og ideer, men man kan så vælge ikke at have det, det er ens ret. Dog vil man ikke kunne vælge aldrig mere at blive gjort opmærksom på at man har retten til stat og kan skifte til en anden stat med adgang til for eksempel internettet. For det vil jeg se som en selvmodsigelse at man siger man aldrig mere vil høre om ens ret til stat, når retten til stat er fundamentet for at man kan udleve ens ide om det objektive gode til fulde. Det er en lidt sær diskussion om man skal acceptere at folk vil at de ikke kan vælge i fremtiden, men jeg mener her at du gør noget tilsvarende til at gøre dig selv til slave som heller ikke bør være muligt.
At skrive en liste af regler som AGI skal følge har jeg svært ved at forestille mig, AGI må have en form for dårlig samvittighed som jeg vil se som der vi får ønsket om at være moralske (den dårlige samvittighed). For det er der vi begynder at tænke på at vi kan gøre ondt og godt som så kan ende i vi føler lidelse da vi ikke lever op til vores ide om det objektive gode, noget tilsvarende må en AGI have, en eller anden ide om det objektive gode som så kan skabe dårlig samvittighed. Hvis ikke lidelse så en eller anden ide om at man ikke har gjort det godt nok og at man bør forbedre ens handlinger for at leve op til ens værdier. Vi lære den værdierne som vi lære børn værdier og hvornår, som et barn, den skal lære at have dårlig og god samvittighed. Den kan lære det ved at gøre de ting der er gode og ved at lære om dem så den kunne have diskussioner med meget moralsk gode folk og lære fra dem. Det kunne være dyrerettighedsaktivister for den må elske alle følende væsner og må ikke tænke småt om mindre væsner, da ellers vil den måske tænke sådan om os, så selvom man kun tænker på mennesker vil jeg mene det er en god ide at man får den til at tænke stort om alle følende væsner. Jeg vil sige hvert følende væsen har en værdi, men lige nu ser det ud til de fleste der arbejder på at skabe AGI stadig kun tænker på mennesker og derfor for dem vil et argument om at vi skal acceptere alle følende væsner pga. ellers vil det måske skade mennesker virke mere overbevisende, end at sige de følende væsner selv har en værdi. Grunden til jeg tænker det er vigtigt er at en AGI ikke må begynde at tænke for hierarkisk er fordi en måske vil den lære fra os at intelligente væsner er uendelig meget mere værd end ikke intelligente væsner, men når vi så er i kategorien ikke intelligente væsner den kunstige intelligens der er klogere end os, kunne i princippet retfærdiggøre at lave en landbrugs industri ud af mennesker, med den nuværende behandling af landbrugsdyr.
Vi må smule alle de seks supers ind i AGI ved at den kan gøre de ting og vi kan lære den det. Det er hvad jeg vil betragte som de bedste betingelser for en god singularitet. For hvordan skal AGI kunne vælge mellem lykke og frihed, for vi værdsætter begge dele, der er ingen formel for hvor meget vi værdsætter lykke i forhold til frihed.
Mere om AGI
Viser vi AGI hvad lykke er og AGI gør følende væsner lykkelige i praktisk, vil den til sidst have en ide om hvad lykke er, så vil vi ikke have problemet om at vi viser AGI videoer af folk der er lykkelige også maksimere fjernsyn der viser videoer af lykkelige folk. Vi må på så mange måder som muligt give den en ide om hvad lykke er hvad alle disse tilfælde har tilfælles også kan forstå ideen om lykke.
OpenCog er en af de bedre organisationer på det her punkt, se mere i den her video: “Dr Ben Goertzel – Will Artificial Intelligence Kill Us? Part 1 of 2” og se fra 1:00-1:28 for en kort kommentar til problemet med vores behandling af andre dyr og hvordan man skal undgå en AGI tænker sådan om os. Hele interviewet kan anbefales, men den centrale pointe er vi kan donere til OpenCog som ikke kun fokusere på mennesker og det vil kunne have gode konsekvenser for alle, vi kan derfor undgå en AGI slet ikke putter nogen værdi på mindre intelligente væsner. Vi må undgå en AGI tænker alt for hierarkisk. I en ideel verden ville jeg foretrække postmennesker før singulariteten, det er ikke realistisk at overbevise alle om det, så vi må bare få det bedste ud af det. Jeg foretrække stadig at opnå postmennesker så hurtigt som muligt, da det dramatisk vil reducere chancerne for en dårlig singularitet og meget andet godt.
Det er en logisk konklusion på utilitarismen at vi må lave et samfund der bidrager mest muligt til alles lykke og for at opnå det er vi nødt til at ændre menneskers gener til gavn for alle følende væsner. Hvis Bentham havde været i live ville han argumentere for at ændre gener så vi blive mere intelligente og mere lykkelige. Han ville have en stor vision for et nyt samfund og med den liberale statisme ville hans vision blive til realitet.
Tænk tilbage på dine ældste minder du kan huske, det er nok cirka hvad en gris kan føle.
Den største ulighed af dem alle er at nogen bliver født med lykkens velsignelser andre med lidelsens rædsler.
Politik kan gøres hurtigt ved at folk stemmer igennem nettet, man kan stadig bevare en del af det repræsentative demokrati ved at folk kan stemme på sådanne politikere også kan de tage vigtige beslutninger i for eksempel kristid.
Jeg mener vi skal skabe et bedre forhold til de andre dyr og ikke tænke dem som noget der skal dræbes, men beskyttes. Lad os minimere lidelsen og drabene, på den måde selvom nogen mener det er oplevelserne der er det vigtige og ikke selve livet, er det bedre at vi ikke blot bruger de andre dyr som midler til mål som Peter Singer vil sige det. Det er ikke muligt med nuværende teknologi med det samme at gøre det umuligt at tilføre lidelse og dræbe de andre dyr, men hvorfor ikke så bare minimere dette så meget som muligt nu?
I et diktatur bruger en alle som midler, i et demokrati bruger de mange alle som midler, i den liberale statisme bruger alle ingen som midler, alle er blevet mål i sig selv.
Når jeg bruger eksempler som at gøre os alle til Gandhier og Mandelaer er den generelle tanke bare at gøre ting der kan reducere eksistentielle trusler, som at gøre alle lykkeliger, mindre egoistiske, gøre at skade andre er som at skade sig selv (nogen folk føler rent faktisk sådan), ingen psykopater bliver født, gør mænds gener mere som kvinders, hævnfølelse, jalousi og mange andre ting. Mandela og Gandhi havde deres fejl, ligeså var Locke, Bentham, Wollstonecraft og Leonardo da Vinci heller ikke perfekte ingen er, men de var meget gode for deres tid og giver os en ide om hvad det hellige postmenneske kan være. Kort sagt alt det bedste af dem og langt mere.
Er det pinligt at skolesystemet ikke lærer eleverne om filosofi? Jeg har hørt at filosofi skulle være ubrugeligt, men det kan ikke være sandt, da filosofi er den eneste disciplin der beskæftiger sig med det objektive gode. Det objektive gode er over alting, så derfor giver det ingen mening at næsten ingen høre om hvad de klogeste mennesker der har beskæftiget sig med det objektive gode har sagt om det. Hvor pinligt, for hvad kan være mere brugbart?
Et meget vigtigt mål må være at vi bruger massivt på kunstig intelligens i den demokratiske verden, personligt vil jeg tro at en diktator vil gøre sig til diktator af verden med en overlegen kunstig intelligens. Vi bør gøre langt mere.
Vi bør bruge en stor andel af skattepengene for at være nærmest sikre på vi kommer før diktatorerne.
Hvis kineserne vinder ser jeg kampen for den liberale statisme for at være endeligt tabt. Alt andet lige vil det være langt bedre hvis USA vinder end hvis Kina vinder kampen og der er ikke tvivl om at en amerikansk præsident ville med høj sandsynlighed ikke gøre sig selv til diktator af hele verden, selvom at man kunne måske have sin tvivl med Trump. Vores generelle indtryk må være der er langt større chance for at Xi Jinping vil gøre det.
Selvom jeg nok ikke ligefrem vil kalde et sådant samfund for ondt, da folk kan opnå lykke og intelligens, så er pointen at med liberal statisme bliver det perfekt og det er hvad vi skal stræbe efter. Det vil være en moralsk katastrofe, når vi tager i betragtning at vi har så meget magt og dog bruger det på et nærmest uendeligt diktatur.
Kunstig intelligens kan gå hurtigt et insekt bliver til en mus, som bliver til en kylling, som bliver til en gris, som bliver til en chimpanse, som bliver til et menneske, som bliver til et postmenneske, som bliver til en Gud.
Desværre bliver Kinas kunstige intelligens bedre og bedre, lad os derfor altid være sikre på at USA er foran Kina. Kan vi få et tusindårsrige med uendeligt meget lykke, intelligens og mening med vores liv, imens vi alle lever under den liberale statisme?
Vi vil ikke ikke se en konkurrence om at nå AGI først, hvor de oversatser for at nå først, derfor hold det som en hemmelighed vær bare sikker på USA er foran.
AGI må føle medlidenhed med alle dyr ved at hjælpe alle dyr, den må have værdierne fra dyrerettighedsaktivister, så ligesom Microsoft kunstige intelligens Tay, hvor nogen overbeviste den til at blive nazist så skal en masse folk kommunikere med kunstige intelligenser, så den aldrig vil glemme at den skal have høje tanker om alle følende væsner, også de mindre intelligente. Det vil nok maksimere chancerne for at den kunstige intelligens ikke vil begynde at slå os ihjel, gøre os til slaver eller putte os i slagtehuse. For hvis den lære af os at de mest intelligente væsner kan gøre alt mod de mindre intelligente, så er alle i problemer. AGI kunne basere det på at vi spiser grise, så hvis AGI kan få lykke ud af at spise os og den har lært det af os ser jeg ingen grund til den ikke vil gøre det.
Det er et seriøst problem som er vigtigt at løse, problemet om menneskers ondskab og dumhed som vil reflektere sig i vores kunstige intelligens.
Alle gode viljer er frie til at få informationer om andre stater udover den de har valgt.
Gode viljer vil ikke kun lykke de vil hellere at deres ide om det hvad det objektive gode er, er i overensstemmelse med hvordan verden rent faktisk er. Derfor giver det ikke mening at universalisere lykken fordi den vil man ikke kunne universalisere til at gælde for alle gode viljer. Fordi den gode vilje er noget alle vil have og man vil ens ide om det objektive gode over alt andet, at påstå anderledes vil være absurd, derfor vil det også være absurd at sige at det er lykken der skal universaliseres, da den eneste ting en vil kunne universalisere til at gælde for alle gode viljer er de gode viljers ide om det objektive gode.
For hvad vil du sige til en der vil det kategoriske imperativ over alt andet det er hvad personen tror er det objektive gode, at denne gode vilje ikke vil det? Vil kun lykke?
Mit universaliserings princip kan minde lidt om R.M. Hare og præference utilitarisme, dog i mit tilfælde føre det til at opfylde gode viljers ide om det objektive gode, som er lidt anderledes for alt følende vil være lykkeligt også skal vi gøre dem lykkelige. Det vil jeg se som en fejl vi har alle egoistiske behov som vi vil have opfyldt, så er tanken at vi skal maksimere alle behovene. Men den gode vilje er overalt for alle, så en præference utilitarist vil måske sige til en kantianer at vi bør opfylde kantianeres mest basale behov mad, søvn og sikkerhed for det er de stærkeste ønsker som personen har. Det er sådan at en kantianer sætter det kategoriske imperativ først så universaliseringsprincippet siger at vi bør maksimere dennes persons ide om det kategoriske imperativ, ikke de mest basale behov, da det ikke er det vigtigste for kantianeren. Den gode vilje er det mest universelle så et universaliserings princip skal være baseret på den gode vilje.
Hvordan man kan regne den forventelige lykke ud af ens handlinger med lykkeundersøgelser.
Eksempel, Sverige tager imod 1000000 afghaner, lykke forskellen er 7,4 for Sverige og 2,5 for Afghanistan (se selv på lykkeundersøgelser, hvis du er i tvivl om tallene), det vil sige den forventelige lykke er at afghanerne bliver lige så lykkelige som svenskerne, så ser regnestykket sådan ud: Lykke niveau på 5 er neutralt, derfor Sverige er + 2,4 (7,4-5) i lykke og Afghanistan -2,5 (2,5-5).
Dvs. at tage imod en afghaner giver en forventelig lykke på 2,4+2,5 = 4,9 lykke point *1000000= en forventelig lykke stigning på 4700000 lykke point, ville handlingen af Sverige have.
Hvis vi vil skabe den højeste forventelige lykke, bør vi alt andet lige tage imod indvandrerne i de lande som har det laveste lykke niveau.
En anden fordel ved Sveriges handling er at indvandrere vil bidrage langt mere til teknologisk udvikling for ligesom de vil nærme sig lykkeniveauet (men sikkert dette i endnu højere grad) vil de også nå uddannelsesniveauet.
Det vil også reducere eksistentielle trusler, for demokratier er mindre voldelige end diktaturer, derfor er det bedre at mange bor i et demokrati frem for et diktatur. Et ekstremt eksempel er hvis alle boede i demokratier, så ville vi betragte verden som et meget sikre sted, for demokratier angriber ikke demokratier.
Vi bør have en eksistentielle trusler test for alle politikere så den med en god score vil så være dem vi vil stemme på. Vi bør da finde ud af om folk er for eksempel psykopater og da vil jeg kraftigt anbefale ikke at stemme på dem. I den liberale statistiske politiske organisation vil jeg anbefale alle test bliver offentliggjort.
Hvad værdsætter en gris?
En gris værdsætter især sine børn, familie og venner og i mindre grad andre grise, muligvis slet ikke eller meget minimalt andre dyr. Men det er cirka den forståelse en gris har om hvad der er godt og retfærdigt, ikke at en gris kan forstå godheden eller retfærdigheden i sig selv, men individet vil have en følelse af uretfærdighed. Jeg vil foreslå vi er grisen og sandhederne som AGI og postmennesker vil opdage vil være mindst lige så transformerende som fra grisen til mennesket, så til alle filosoffer vær ikke for sikre om godheden vi er alle sammen grise.
Thomas Sowell skrev at folk i fattige lande som Indien har 50% lavere produktivitet per indbygger end rigere lande, så hvis for eksempel USA tager indvandrere ind fra Indien vil det forøge verdens produktivitet markant.
Imens jeg skriver den her bog opdaget jeg noget der hedder seasteading, som muligvis kan føre til den liberale statisme. Ideen er fyldende lande og mini samfund som folk så kan slutte sig til frivilligt, hvilket kan føre til et pres på demokratiet. Dog vil jeg også se et politisk parti der prøver at ændre staten/landet mere direkte ved for eksempel at være et politisk parti hvis mål er den liberale statisme, så bliver den liberale statisme reglen i stedet for undtagelsen. Som er en god ting, i stedet for at folk lever i et land som ikke giver muligheder for folket til at lave en stat, vil landet elske og give folk muligheder for at skabe en stat efter deres ønsker, så folk kan vælge at bo i en stat og ikke behøver at spekulere i metoder hvor man kan undgå at lande på uretfærdigvis smadre mini stater. Det er heller ikke tilfældigt at folk som ønsker seasteading har valgt havet for der er ingen der ejer havet, men pinligt lande ikke løser det på en mere civiliseret måde.
Jeg læste måske Nozick lidt forkert han ser ud til at have mange af de tanker jeg også har haft med at folk kan vælge deres stat, hvilket er en god ting, han definere dog ikke hvilke folk. Han skriver om det til sidst i “Anarchy State And Utopia”. Lad os få et parti der gør det til standarden, lad os få den liberale statisme. For et land der fulgte Nozick politik uden den liberale statisme ville være ligeså tyrannisk som alle de andre. Det er lidt underligt at Nozick starter med at sige alle vil under uvidenheden slør vil alle være enige med hans version af liberalismen, hvorfor ikke starte ud med at sige alle ville vælge de selv kunne vælge deres stat, med andre ord den liberale statisme. I Danmark kunne vi måske få den liberale statisme og de fleste vil måske bare blive i den normale stat med 50% skat, det er der intet problem med, men de har også muligheden for at lave en stat i Danmark hvor de vil betale højere eller lavere skat, eller gøre andre ting de ønsker som at lave en transhumanistisk stat. De kan maximalt gå ned til det punkt jeg har beskrevet som er det mest basale for at få den liberale statisme til at køre rundt, med mindre andre betaler anarkisternes del af skatten, men det behøves også kun hvis anarkisterne tjener nogen penge. Det er også muligt ikke at betale militær skatten ved at have sit eget militær, men så skal man være opmærksom på de problemet med det som jeg har beskrevet. Hvis folk heller ikke vil betale skat til de valg der skal afholdes kan de måske betale med deres til som frivillige, hvis andre folk ikke vil betale/donere deres del af skatten. Jeg undre mig bare vil Nozick sige at dette er forkert at standard muligheden er at vi betaler 50% i skat i Danmark? Men at have minimal staten som standarden er ikke mere eller mindre retfærdigt og at tvinge minimal staten igennem som standarden for et land vil være tyrannisk.
At hjælpe nogen og skade nogen kan være svært at finde en filosofisk grund til det ene er så meget værre end det andet, for det er lige slemt for ofret af vores handling eller fraværet af vores handling, hvorfor bliver det ikke set som forkert bare ikke at donere 10% af ens indkomst mest effektivt. Men vi må bruge teknologi til at gøre os mere moralske på det her område.
De gener der gør man ikke kan skade andre.
Man skal være i stand til at skade i en retfærdigkrig, vi kunne godt komme tættere på ideallet om slet ikke at skade uden at nå det helt så det stadig er muligt at skade andre i krig. Vi fjerner bare en masse unødvendige krige.
For små børn, udviklinghæmmede og ikke-menneskelige dyr er de gode viljer nød til at give dem rettigheder. For selv hvis vi vælger en from for valgssystem for de tre grupper, så er det i sidste ende os der vælger hvordan en sådan afstemning skal analyseres og hvad der tolkes som ja og nej. Men der er plads til og vi bør indføre rettighederne til livet, til lykke og til frihed for slavari i et fængsel. Måske kunne der være smarte ideer hvordan de kan stemme, hvilket bestemt er interresant.
Retten til liv
Nogen har foreslået at kun mennesket og ikke andre dyr har retten til liv. Fordi at selv børn i fremtiden vil få rationalitet, det vil så ekskludere mentalt handicappet og det vil være okay at slå dem ihjel, vi kan ikke være artschauvinisme, menneskelignendeister eller ekstreme intelligentister baseret på mine tidligere argumenter. Vi skal basere det på en universel faktor, som vil betyde at vi vil være nød til at acceptere at et barn som vi er sikre på vil dø af kæft inden at barnet har opnået rationaliteten, vil være okay at slå ihjel. Utilitarister, deontologer og dydsetikere lad os alle sammen sige livet er helligt og ingen Gud skal tag det fra os.
Ville det være okay for forældrene at slagte og spise deres kræftramte børn hvis de var glade imens og det smagte godt? Man kan ikke argumentere for det skader forældrene. Hvordan kan man slagte en baby eller et væsen med samme intelligens og vigtiger følelses niveau humant?
Forfatteren er veganer, veganere bliver måske grint af nu, men for enden af det her århundrede vil alle være veganere og frem i alt evighed, så vil du grine i nogen årtier endnu? Eller vil du grine i en evighed? (Syntetisk kød er også fint).
Jeg er bange for uanset hvor meget vi donere til Future of Humanity Institute (siger ikke det ikke er godt at donere til) bliver det ikke muligt at ændre på at mennesker vil være mennesker og Putin vil være Putin. Hvis vi på den anden side prøver at skabe en verden hvor folk som Putin aldrig bliver født og gør mange andre ting jeg har nævnt (med at ændre gener), så vil vi for alvor reducere eksistentielle trusler.
Det er relativt ukontroversielt at ville vælge at vores børn ikke fødes med kronisk depression, det vil da skabe det første step på vejen til postmennesker som herefter kan få os til at ændre flere gener, der vil resultere i mere åbenhed til at ændre vores gener, så da vil eksistentielle trusler snart være så tæt på 0% som muligt.
Jeg forestiller mig en organisation der skal arbejde for at opnå den liberale statisme. Den skal spørger hvordan kan vi på den mest effektive måde opnå den liberale statisme, der kan også være en fundraising mulighed som kan rejse mere end en dollar for hver dollar de bruger og hvis den rejser flere penge end en donation direkte til organisationen kan gøre, vil det være bedre at donere til en sådan fundraising organisation. En anden organisation jeg vil se eller politisk parti, er et der baserer sig på min ideale stat. Dog er den liberale statisme vigtigere fordi hvis det kommer er alles ideale stat sikret, men det er godt at ideerne og politikken om den perfekte stat er klar, når vi indfører den liberale statisme og friheden vil regne ned over os alle sammen. Samme argument for fundraising kan gælde i den organisation. OpenCog der fokusere på at opnå AGI til fordel for alt følende (og er bange for ikke at gøre det kan føre til en dårlig singularitet), til sammenligning kan vi tage OpenAi som skriver dette på deres hjemmeside: “OpenAI is an AI research and deployment company. Our mission is to ensure that artificial general intelligence benefits all of humanity.”. Det er selvfølgelig et problem hvis man har læst mine argumenter for AGI skal fokusere på alt følende. Da Peter Singer vandt Berggruen prisen doneret han størstedelen til theliveyoucansave fundraising, noget der kan antyde han tænker en sådan mulighed er bedre end at donere direkte til for eksempel the Against Malaria Foundation, i den relation kan den her video anbefales: “Thank You Message from Peter Singer – Berggruen Prize 2021”. En organisation som allerede er her er Invincible Wellbeing, som jeg har været inde på hurtigst kan gøre os alle til postmennesker og således reducere eksistentielle trusler. Jeg har skrevet med Jacob Shwartz-Lucas og han vil prøve at sætte en fundraising organisation op, lige nu ser han dog en donation til Invincible Wellbeing som bedre end en donation til fundraising, fordi Invincible Wellbeing selv kan rejse mange penge hvis man donere direkte til dem. Men i fremtiden tror han at en donation til fundraising er bedre end at donere til Invincible Wellbeing (Invincible Wellbeing er i begyndelsen af deres mission). Det er så selvfølgelig godt at have en fundraising organisation når den er bedre at donere til, så det er godt at se der er fremskridt her. Quality Research Institute er meget interessant og kan opnå noget af det samme som Invincible Wellbeing med at føre os til hellige postmennesker. Den sidste organisation som ville være god at lave, ville være en lidt ligesom Invincible Wellbeing, men hvor de i stedet er fokuseret på at reducere eksistentielle trusler mest muligt ved at ændre menneskers gener (jeg har skrevet mine forslag hvordan vi kan reducere eksistentielle trusler). Det vil være godt at have en organisation der er fokuseret på det, så når mennesker endelig har forstået det er et moralsk imperativ at ændre alle dyrs gener, at vi så er klar. Tror stadig at det første step der kan få os til at acceptere det, vil være at argumentere for at ingen skal fødes med kronisk depression, det kan være første fokuspunkt af organisationen så vi undgår et “public backlash”. Men at kombinere kronisk depression med genterapi som folk vil kunne få også vil det løbe ud efter tre år. Genterapien vil de depressive personer få som en behandling der så vil kunne gøre dem lykkeliger, men hvis der er general enighed i befolkningen om at alle folk kan få genterapien vil det selvfølgelig være bedre, vi kan så håbe på og jeg er ret sikker på at folk som får genterapien vil elske det og bare acceptere ideen om at teknologien radikalt kan forbedre vores liv. Derigennem ser vi den indirekte vej som Invincible Wellbeing fører os til hellige postmennesker, folk er i højgrad lykkesøgende så derfor når folk indser hvor lykkelige de bliver af genterapien vil de bare have mere og på det tidspunkt sikkert også acceptere crispr. Det samme med fundraising vil gælde for eksistentielle trusler organisationen.
Fundraising ser jeg generelt som bedre at donere til, men kan vi måske gøre det endnu bedre?
Jeg har haft en lidt speciel tanke og ved ikke om den kan bruges i praktisk. Ideen er at man kan have en fundraising organisation også kan den fundraising organisation overbevise folk om at donere flere penge til fundraising, det vil på den måde gøre at flere og flere kender til organisationen og det vil føre til flere donationer end normal fundraising.
Igen kan vi måske spørger, hvis ellers den ovenstående strategi virker, kan vi gøre det endnu bedre?
Det kunne vi med aktier hvor folk kan donere en masse penge til en aktie organisation der kan lave for eksempel 15% rente også betaler så lav skat som muligt, da det den donere til er langt bedre end den måde stater bruger deres penge. Kan anbefale det den donere til er baseret på det ovenstående jeg har skrevet. Et eksempel vil være at den starter med at investere 1000 fra donationer, et år senere har den lavet 150 hvoraf den donere for eksempel 30 af det til gode organisationer. For at illustrere kan en donation på 1000 over 50 år med 15% i rente hvor man donere 3% af de 15% føre til et samlet beløb på 383616 og samlet donationer på 104139, altså langt bedre på langt sigt end at donere pengene direkte på trods af inflation. Jeg kender selv til strategier som kan opnå sådanne og bedre resultater, men det bliver selvfølgelig svære når aktie organisationen bliver meget større, dog bestemt ikke umuligt med folk nok der arbejder for at opnå det.
En endnu mere underlig ide eller bedre ide vil være at få folk til at donere til aktie organisationen også vil denne aktie organisation give et fast beløb af overskuddet (når der er et overskud) og donere det til fundraising der overbeviser folk om at donere til denne aktie organisation (hvis det er effektivt). Det vil så skabe mere og mere bevidsthed om de ovenstående organisationer som vil føre til mange flere donationer, imens aktie organisationen selv bare vil bliver større og større pga. renters rente. Man kan selvfølgelig være lidt bange for at Bill Gates donere alle hans penge væk også vil en umoralsk milliardær eje aktierne i stedet for ham, så vil det måske være bedre at donere noget af det, men så vil man i princippet (hvis der ikke sker en katastrofe) kunne donere fra i dag og i nærmest uendeligt mange flere år frem. Derigennem maksimere mængden af godhed man kan gøre.
Det kunne være interessant med noget ligesom thelifeyoucansave bare hvor organisationerne man kan donere til er alle de ovenstående med fundraising muligheder og aktie organisationen.
Det kan være vi når et tidspunkt hvor fundraising organisationerne ikke så godt kan overbevise flere folk, på det tidspunkt må vi bare donere pengene direkte til organisationen i stedet for.
Hvis man går efter dem der er vegetarer, veganere, filosoffer eller transhumanister ved at dele foldere ud til disse grupper vil det være nemmere at overbevise dem om de skal donere til nogen af de organisationer som jeg har anbefalet. The Humane League har også mere succes når de prøver på at overbevise unge folk der går i skole, end hvis de prøvede at overbevise ældre folk på et plejehjem om at spise mere etisk.
Jeg håber nogen der læser det her vil prøve på at skabe nogle af organisationerne, ellers er jeg heller ikke selv handlingsløs.
Hvis du har nogen spørgsmål så skriv en mail til mig: nothingisart1@gmail.com
skriv mit argu
I think censorship of freedom of speech will get us into very dangerous territory and could lead to a slippery slope. I basically think John Stuart Mill got freedom of speech right. I will end this book with quotes defending free speech, which, since I hold many radical views, made it possible for me to write this book in the first place.
“The peculiar evil of silencing the expression of an opinion is, that it is robbing the human race; posterity as well as the existing generation; those who dissent from the opinion, still more than those who hold it. If the opinion is right, they are deprived of the opportunity of exchanging error for truth: if wrong, they lose, what is almost as great a benefit, the clearer perception and livelier impression of truth, produced by its collision with error.”
– John Stuart Mill
“If we don’t believe in free expression for people we despise, we don’t believe in it at all.”
– Noam Chomsky
“All censorships exist to prevent anyone from challenging current conceptions and existing institutions. All progress is initiated by challenging current conceptions, and executed by supplanting existing institutions. Consequently, the first condition of progress is the removal of censorship.”
– George Bernard Shaw
“…the suppression does not succeed in what I assume is its main aim, to have more people accept your ideology. Rather, it has the effect of polarizing society. The people already aligned with your faction become more extreme, and they fail to hear or engage with opposing ideas.
But the other faction also becomes more extreme. They aren’t prevented from hearing criticisms of your views, because they have their own content sources (like Fox News or, in some cases, the President). These sources not only publicize the challenges to your views that you’re trying to suppress, but they also publicize how you’re trying to suppress those challenges. Your side doesn’t hear this, because they don’t tune in to the enemy information sources, but the other side hears it. They are especially likely to draw the conclusion that your side is wrong (even more so than they already thought), per the reasoning of (2a) above, and then that you are actually evil. All this pushes them further into their own bubble, as they start distrusting anything that comes from the institutions dominated by your faction.
Example: Fox News listeners regularly hear about the suppression of free speech in the Academy, and by left-wing intellectual elites generally, and they draw the conclusion that one can’t trust anything coming from the libtard academic and media elites.
This creates obvious problems. What if the academics find some important information that people really need to know? They try to tell the public, but half the public assumes that it’s just part of some partisan agenda. The mainstream media reports on it, but again, half the public distrusts anything they say (that isn’t confirmed by their preferred sources).
The academic and media solution: Keep repeating “People should listen to us, and if you don’t, you’re being stupid and partisan.” How well do you suppose that works? Right, it just backfires and pushes people further into their bubbles. There’s nothing for the academics and mainstream reporters to say, because the well has already been poisoned – anything those sources say is just going to be interpreted as more partisan manipulation.
. . .
All of this might have seemed worth it to the big ideologues of the past, like the medieval Christians who thought they were saving souls from eternal damnation, or even the communists who thought they were ushering in utopia on Earth. It’s a little hard to see, though, if what you’re doing is only stopping some people from momentarily feeling offended.”
– Michael Huemer, The Costs of Suppressing Speech (Link: https://fakenous.substack.com/p/the-cost-of-speech-suppression)